Use Cases
So unterstützen wir unsere Kunden in den Bereichen
Infrastruktur, Business Intelligence und Advanced Analytics
Beispielhafte Projekte
Erfolgreiche Lösungen für unsere Kunden

Situation:
Konsolidierung der Datenstruktur eines Versicherungskonzerns durch Schaffung eines Enterprise DWH (EDWH) als zentrale und strategische Basis für das Reporting über alle Sparten und über verschiedene Marken.
System- und Projektlösung:
Neben den (technischen) Quellschichten wurde das Core Data Warehouse (als Single Point of Truth) konzipiert und implementiert. Parallel wurden mehrere geschäftsbezogene DataMarts zur Abbildung der erforderlichen Kennzahlen aus dem DWH entwickelt. Die Projektarbeit erstreckte sich über allem Disziplinen des Business Intelligence, der Datenmodellierung, der Definition der DWH-Architektur, der Entwicklung von ETL-Prozessen, der Unterstützung von Kennzahlenberechnung bis hin zu Managed Support.
Zuletzt erfolgte der 2. Level Support für alle Verfahrensservices, Pflege / Wartung (Maintenance), Diagnose und Troubleshooting in Fehlersituationen sowie Planung und Durchführung von QS/ QM-Maßnahmen sowie Weiterentwicklung über Continuous-Integration/ -Deployment.
Ergebnis:
Hochperformantes und State-of-the-Art EDWH-System, als Grundlage für Business Intelligence und Analytics.

Situation:
Das Reporting-System basiert auf der Oracle-Datenbank des ehemaligen Mutterkonzerns. Nach der Abspaltung waren ETL Strecken und OBIEE Berichte entweder gar nicht oder nur sehr spärlich dokumentiert.
Projektlösung:
Auf Basis des SCRUM-Frameworks wurde das Reporting vollständig auf Power BI migriert. Hierzu wurde im ersten Schritt ein Review des Datamart Layer durchgeführt, der signifikante Designfehler aufdeckte. Danach erfolgte ein Reverse Engineering der bestehenden OBIEE Reports, um bestehende Prozesse zu verstehen, Datenquellen zu identifizieren und die implementierte Business Logik nachdokumentieren zu können. Via Top-Down Ansatz erfolgte dann die Entwicklung der Reports in Power BI, die relational direkt an die Oracle Datenbank angebunden waren. Die hierdurch generierten SQLs wurden unter Performance-Aspekten analysiert, wodurch und Optimierungen auf den Datenbanktabellen umgesetzt werden konnten.
Ergebnis:
Schnelle Migration auf Microsoft Power BI und Performance-Steigerung des gesamten Reporting-Systems. Auf Basis eines Template-Set können Power-User flexibel und schnell Modifizierungen und Anpassungen der Kernberichte in Power BI vornehmen.

Situation:
Migration von internen Anwendungen auf eine neue Intranetplattform, mit dem Fokus auf Open Source Software und einer Cloud nativen Architektur.
Projektansatz:
Zielsetzung war, eine Gesamtarchitektur für Plattform, lokale Entwicklungs-umgebung, Netzwerk und alle Schnittstellen (Nutzern, Datenbanken, Storage etc.) zu implementieren. Dabei lag der Fokus auf der Einführung von:
- Kubernetes und einem Cluster-Management-System
- Kommunikationsverschlüsselung / Zugriffssteuerung via Service-Mesh
- Einführung von neuen Open Source Tools
- DevOps-Konzepten
- Operatoren und anderen Automatisierungslösungen
Zudem wurden die Entwickler bei der Migration bezüglich cloudnativer Anwendungsarchitekturen beraten. Hierfür wurden allgemeine Leitlinien und Architekturentscheidungen für neue Technologien erstellt und Blaupausen für Microservice-Architekturen, Claim Check-Muster und die Überwachung von Performance und Verfügbarkeit der Services entwickelt.
Ergebnis:
- 12 Monate bis zum Go-live der produktiven Plattform
- Fachabteilungen können hochverfügbare, skalierbare Microservices nutzen
- Automatisierung durch die Nutzung von Operatoren

Situation:
Migration von internen Anwendungen auf eine neue Intranetplattform, mit dem Fokus auf Open Source Software und einer Cloud nativen Architektur.
Projektansatz:
Zielsetzung war, eine Gesamtarchitektur für Plattform, lokale Entwicklungs-umgebung, Netzwerk und alle Schnittstellen (Nutzern, Datenbanken, Storage etc.) zu implementieren. Dabei lag der Fokus auf der Einführung von:
- Kubernetes und einem Cluster-Management-System
- Kommunikationsverschlüsselung / Zugriffssteuerung via Service-Mesh
- Einführung von neuen Open Source Tools
- DevOps-Konzepten
- Operatoren und anderen Automatisierungslösungen
Zudem wurden die Entwickler bei der Migration bezüglich cloudnativer Anwendungsarchitekturen beraten. Hierfür wurden allgemeine Leitlinien und Architekturentscheidungen für neue Technologien erstellt und Blaupausen für Microservice-Architekturen, Claim Check-Muster und die Überwachung von Performance und Verfügbarkeit der Services entwickelt.
Ergebnis:
- 12 Monate bis zum Go-live der produktiven Plattform
- Fachabteilungen können hochverfügbare, skalierbare Microservices nutzen
- Automatisierung durch die Nutzung von Operatoren

Situation:
Lastspitzen treten in vielen vernetzten Systemen auf, wie z.B. in Rechen-zentren, in Warenströmen oder in Stromnetzen. Bei innerbetrieblichen Stromnetzen sorgen Lastspitzen für überproportional hohe Kosten, da entweder Überkapazitäten vorgehalten oder Leistungen extern eingekauft werden müssen.
Lösung / Service:
Mittels selbstlernender KI-basierter Verfahren werden mögliche (und teure) Lastspitzen automatisch prognostiziert und über eine angepasste Produktionssteuerung abgefangen. Hierzu werden historische Daten in einem Maschine Learning Algorithmus antrainiert, dessen Ergebnis ein trainiertes Modell ist, das Lastspitzen ca. 6h im Voraus prognostizieren kann. Diese Prognose wird in einem zweiten Schritt in das betriebliche Energiemanagement eingebunden, welches somit aktiv die Energieverbraucher regulieren kann
Ergebnis:
- Kosteneinsparung durch geringere Nutzung externer Energien
- Transparenz über die tagtägliche Lastentnahme
- Identifikation von ausschlaggebenden Energieverbrauchern

Situation:
Lastspitzen treten in vielen vernetzten Systemen auf, wie z.B. in Rechen-zentren, in Warenströmen oder in Stromnetzen. Bei innerbetrieblichen Stromnetzen sorgen Lastspitzen für überproportional hohe Kosten, da entweder Überkapazitäten vorgehalten oder Leistungen extern eingekauft werden müssen.
Lösung / Service:
Mittels selbstlernender KI-basierter Verfahren werden mögliche (und teure) Lastspitzen automatisch prognostiziert und über eine angepasste Produktionssteuerung abgefangen. Hierzu werden historische Daten in einem Maschine Learning Algorithmus antrainiert, dessen Ergebnis ein trainiertes Modell ist, das Lastspitzen ca. 6h im Voraus prognostizieren kann. Diese Prognose wird in einem zweiten Schritt in das betriebliche Energiemanagement eingebunden, welches somit aktiv die Energieverbraucher regulieren kann
Ergebnis:
- Kosteneinsparung durch geringere Nutzung externer Energien
- Transparenz über die tagtägliche Lastentnahme
- Identifikation von ausschlaggebenden Energieverbrauchern

Situation:
Die Plattform soll Kunden, die im Aktien- und Wertpapiermarkt tätig sind, eine Lösung bieten um die neuen / zusätzlichen Trans-parenz- und Meldepflichten (MiFID II, MiFIR, EMIR II) zu erfüllen. Alle Kundentransaktionsdaten – also alle An- und Verkäufe eines Börsentages – sollen validiert, angereichert und in Berichten zusammengefasst werden.
Lösung / Service:
Dateien mit Kundentransaktionsdaten werden gesammelt und an die Plattform übertragen. Hier werden alle Daten validiert, angereichert und entsprechend der EU-Regulatorischer Verordnungen transformiert sowie nach Datenqualitätskriterien geprüft. Dabei werden in jeder Schicht Kennzahlen- und Feedback-Berichte erstellt, um die Kunden über den Prozess zu informieren (Informationen über verarbeitete Daten, gesendete Daten, Fehler, Warnungen).
Ergebnis:
Ein hochautomatisierte Systemlösung, durch die alle regulatorischen Anforderungen erfüllt werden können und indem Berichte und Responses an Regulierungsbehörden automatisch erstellt bzw. verarbeitet werden. Alle Prozesse werden in verschiedenen Ebenen per ETL-Tool (informatica PowerCenter) implementiert, und in eine Oracle RDBMS gespeichert.

Situation:
Vor dem Hintergrund der aktuellen Anforderungen an das Risikomanagement musste das bestehende Reportingsystem neu aufgesetzt werden. Gleichzeitig bestand hierdurch die Möglichkeit, eine grundlegende Überprüfung und Optimierung der bereits bestehenden BI-Struktur und Reportings vorzunehmen.
Lösung / Service:
Auf Basis einer umfassenden Analyse (gemeinsam mit dem Fachbereich) wurde ein neues BI- und Reporting-Konzept entwickelt, mit der eine vollumfängliche und aktuelle Erfassung aller Chancen und Risiken möglich ist. Durch die Bereitstellung generischer und wiederverwendbarer ETL-Komponenten wurden mehrere DWH-Schichten mit Daten aus mehreren Quellsystemen (operativ und dispositiv) gefüllt. Neben den (technischen) Quellschichten wurde auch ein „Core Data Warehouse“ (als Single Point of Truth) konzipiert und implementiert.
Ergebnis:
Geschäftsbezogene DataMarts bilden alle erforderlichen Kennzahlen aus dem DWH ab und stehen nun vielen Nutzern zur Verfügung (ein Singel Point auf True für die Abteilungen). Dabei ist jeder DataMart hoch-performant und kann tagesaktuelle Auswertungen auf Basis aller verfügbaren Daten erstellt werden.
Implementiert wurde auch ein Datenbereinigungssystem, mit denen manuell eingegebene Daten im Hintergrund überprüft werden.
Lassen Sie uns loslegen!
Wir glauben, dass nur durch ein tiefes und fundiertes Technologie Know-how die erfolgreiche Beratung und Umsetzung in den Bereichen Infrastruktur, Business Intelligence und Analytics möglich ist.
Das beweisen die unterschiedlichsten Projekte, die wir erfolgreich bei Konzernen, Großunternehmen und mittelständischen Unternehmen durchgeführt haben.
Entscheidend sind Ihre konkreten Anforderungen an die aktuelle und zukünftig genutzte Technologie. Welches Problem wollen Sie schnellstmöglich lösen? Welches Ziel treibt Sie an?
Wir freuen uns auf Ihre konkreten Anforderungen.
Dr. Marcus Mende
Director Sales & Marketing