infologistix Campus

Mittlerweile stehen Daten im Mittelpunkt fast aller unternehmerischen Entscheidungen – die Data Driven World ist Realität. Umso wichtiger ist es, die Technologien und Systeme mit denen das neue „Öl des 21. Jh.“ genutzt wird, zu kennen und zu beherrschen.

Und genau darauf ist der infologistix Campus ausgerichtet:
Wir vermitteln Ihnen tieftechnisches Wissen leicht verständlich, in überschaubaren Einheiten aufbereitet und auf Ihre unmittelbare Praxis bezogen. Das erreichen wir gemeinsam über den Austausch mit Ihnen als Spezialist in Ihrem Fachgebiet und uns als Ihrem technischem Dienstleister. Die Kommunikation findet dabei auf Augenhöhe statt.

Hierbei beschäftigen wir uns sowohl mit klassischen System-Ansätzen, als auch mit neuen Technologien und Innovationen. Insbesondere aktuelle Trends und Hypes nehmen wir dabei genau unter die Lupe – mit allen Stärken und Schwächen.

Alle unsere Trainings werden ausschließlich von Praktikern durchgeführt – von Consultants, Projektleitern und Spezialisten, die allesamt über jahrelange praktische Erfahrung in der Umsetzung von Projekten in der Data Driven World verfügen.

Auch deshalb basieren unsere  Trainings auf einem Mix aus (wenig) Theorie und viel Demonstration (Erleben) der Systemfunktionalitäten durch zahlreiche intensive Übungen am System. Denn jeder Teilnehmer soll danach in der Lage sein, seine erlebten Erfahrungen unmittelbar im eigenen Unternehmen in der Praxis einzusetzen.

Trainingsbausteine des infologistix Campus

Wesentlich für den Aufbau eines Data Warehouse sind das Datenmodell und das Architekturmodell. Das Datenmodell beeinflusst ganz wesentlich die spätere Nutzung des DWH, d.h. welche Daten darin enthalten sind und welche Daten zueinander in Beziehung gesetzt werden können. Das Architekturmodell bestimmt die Aufwände bei der Implementierung und dem Betrieb des DWH.

In diesem 2 + 2 tägigen Training erlernen Sie die verschiedenen konzeptionellen Datenmodellierungsansätze und deren Transformation in relationale bzw. multidimensionale Datenstrukturen. Neben der Vermittlung der methodischen Grundlagen werden typische Entwicklungsmuster und deren technische Umsetzung anhand von konkreten Fallstudien vorgestellt.

Immer öfter kann sich Apache Kafka als Lösung für die effiziente Verarbeitung von Streaming Data durchsetzen – z.B. für Sensordaten oder für Daten aus Social Media Anwendungen. Den Kern bildet dabei ein verteiltes Transaktions-Log, so dass Apache Kafka skalierbar und fehlertolerant ist. Gerade diese Eigenschaften sind erforderlich, um die neuen, eher dezentral konzipierten Big Data Konzepte umzusetzen.

In dem 2 + 2 tägigen Training zeigen wir Ihnen, wie Sie Apache Kafka als Plattform einsetzen können, um die „klassischen“, ETL-basierten Architekturen durch eine flexible und skalierbare Hybrid-Architektur zu modernisieren.

Mit einem sehr hohen Praxisbezug will dieses 2 + 2 tägige KI-Training Sie dazu befähigen, KI-Projekte in Ihrem eigenen Unternehmen zu starten und durchzuführen. Unabhängig von Ihrer heutigen Realität aus BI oder ersten Analytik-Projekten erhalten Sie einen umfassenden Einblick auf Potenziale und Limits der KI-Technologie.

Unser KI-Training relativiert bewusst den Hype und verbessert gezielt Ihre Beurteilungskompetenz. Wir zeigen Ihnen lösungsorientiert, wie Sie wichtige Schlüsselkonzepte aus dem Machine Learning bewerten und Ihre eigenen Entscheidungen mithilfe künstlicher Intelligenz verbessern.

infologistix-Campus 

Scroll to Top