Use Cases

So unterstützen wir unsere Kunden in den Bereichen
Infrastruktur, Business Intelligence und Advanced Analytics

Beispielhafte Projekte

Erfolgreiche Lösungen für unsere Kunden

Use Case Versicherung

Situation:
Konsolidierung der Datenstruktur eines Versicherungskonzerns durch Schaffung eines Enterprise DWH (EDWH) als zentrale und strategische Basis für das Reporting über alle Sparten und über verschiedene Marken.

 

System- und Projektlösung:
Neben den (technischen) Quellschichten wurde das Core Data Warehouse (als Single Point of Truth) konzipiert und implementiert. Parallel wurden mehrere geschäftsbezogene DataMarts zur Abbildung der erforderlichen Kennzahlen aus dem DWH entwickelt. Die Projektarbeit erstreckte sich über allem Disziplinen des Business Intelligence, der Datenmodellierung, der Definition der DWH-Architektur, der Entwicklung von ETL-Prozessen, der Unterstützung von Kennzahlenberechnung bis hin zu Managed Support.
Zuletzt erfolgte der 2. Level Support für alle Verfahrensservices, Pflege / Wartung (Maintenance), Diagnose und Troubleshooting in Fehlersituationen sowie Planung und Durchführung von QS/ QM-Maßnahmen sowie Weiterentwicklung über Continuous-Integration/ -Deployment.

 

Ergebnis:
Hochperformantes und State-of-the-Art EDWH-System, als Grundlage für Business Intelligence und Analytics.

Use Case Automobil Zulieferer

Situation:
Das Reporting-System basiert auf der Oracle-Datenbank des ehemaligen Mutterkonzerns. Nach der Abspaltung waren ETL Strecken und OBIEE Berichte entweder gar nicht oder nur sehr spärlich dokumentiert.

 

Projektlösung:
Auf Basis des SCRUM-Frameworks wurde das Reporting vollständig auf Power BI migriert. Hierzu wurde im ersten Schritt ein Review des Datamart Layer durchgeführt, der signifikante Designfehler aufdeckte. Danach erfolgte ein Reverse Engineering der bestehenden OBIEE Reports, um bestehende Prozesse zu verstehen, Datenquellen zu identifizieren und die implementierte Business Logik nachdokumentieren zu können. Via Top-Down Ansatz erfolgte dann die Entwicklung der Reports in Power BI, die relational direkt an die Oracle Datenbank angebunden waren. Die hierdurch generierten SQLs wurden unter Performance-Aspekten analysiert, wodurch und Optimierungen auf den Datenbanktabellen umgesetzt werden konnten.

 

Ergebnis:
Schnelle Migration auf Microsoft Power BI und Performance-Steigerung des gesamten Reporting-Systems. Auf Basis eines Template-Set können Power-User flexibel und schnell Modifizierungen und Anpassungen der Kernberichte in Power BI vornehmen.

Use Case Bundesbehörde

Situation:
Migration von internen Anwendungen auf eine neue Intranetplattform, mit dem Fokus auf Open Source Software und einer Cloud nativen Architektur.

Projektansatz:
Zielsetzung war, eine Gesamtarchitektur für Plattform, lokale Entwicklungs-umgebung, Netzwerk und alle Schnittstellen (Nutzern, Datenbanken, Storage etc.) zu implementieren. Dabei lag der Fokus auf der Einführung von:

  • Kubernetes und einem Cluster-Management-System
  • Kommunikationsverschlüsselung / Zugriffssteuerung via Service-Mesh
  • Einführung von neuen Open Source Tools
  • DevOps-Konzepten
  • Operatoren und anderen Automatisierungslösungen

Zudem wurden die Entwickler bei der Migration bezüglich cloudnativer Anwendungsarchitekturen beraten. Hierfür wurden allgemeine Leitlinien und Architekturentscheidungen für neue Technologien erstellt und Blaupausen für Microservice-Architekturen, Claim Check-Muster und die Überwachung von Performance und Verfügbarkeit der Services entwickelt.

Ergebnis:

  • 12 Monate bis zum Go-live der produktiven Plattform
  • Fachabteilungen können hochverfügbare, skalierbare Microservices nutzen
  • Automatisierung durch die Nutzung von Operatoren
Use Case Bundesbehörde

Situation:
Migration von internen Anwendungen auf eine neue Intranetplattform, mit dem Fokus auf Open Source Software und einer Cloud nativen Architektur.

Projektansatz:
Zielsetzung war, eine Gesamtarchitektur für Plattform, lokale Entwicklungs-umgebung, Netzwerk und alle Schnittstellen (Nutzern, Datenbanken, Storage etc.) zu implementieren. Dabei lag der Fokus auf der Einführung von:

  • Kubernetes und einem Cluster-Management-System
  • Kommunikationsverschlüsselung / Zugriffssteuerung via Service-Mesh
  • Einführung von neuen Open Source Tools
  • DevOps-Konzepten
  • Operatoren und anderen Automatisierungslösungen

Zudem wurden die Entwickler bei der Migration bezüglich cloudnativer Anwendungsarchitekturen beraten. Hierfür wurden allgemeine Leitlinien und Architekturentscheidungen für neue Technologien erstellt und Blaupausen für Microservice-Architekturen, Claim Check-Muster und die Überwachung von Performance und Verfügbarkeit der Services entwickelt.

Ergebnis:

  • 12 Monate bis zum Go-live der produktiven Plattform
  • Fachabteilungen können hochverfügbare, skalierbare Microservices nutzen
  • Automatisierung durch die Nutzung von Operatoren
Use Case Energiewirtschaft

Situation:
Lastspitzen treten in vielen vernetzten Systemen auf, wie z.B. in Rechen-zentren, in Warenströmen oder in Stromnetzen. Bei innerbetrieblichen Stromnetzen sorgen Lastspitzen für überproportional hohe Kosten, da entweder Überkapazitäten vorgehalten oder Leistungen extern eingekauft werden müssen.

Lösung / Service:
Mittels selbstlernender KI-basierter Verfahren werden mögliche (und teure) Lastspitzen automatisch prognostiziert und über eine angepasste Produktionssteuerung abgefangen. Hierzu werden historische Daten in einem Maschine Learning Algorithmus antrainiert, dessen Ergebnis ein trainiertes Modell ist, das Lastspitzen ca. 6h im Voraus prognostizieren kann. Diese Prognose wird in einem zweiten Schritt in das betriebliche Energiemanagement eingebunden, welches somit aktiv die Energieverbraucher regulieren kann

 

Ergebnis:

  • Kosteneinsparung durch geringere Nutzung externer Energien
  • Transparenz über die tagtägliche Lastentnahme
  • Identifikation von ausschlaggebenden Energieverbrauchern
Use Case Energiewirtschaft

Situation:
Lastspitzen treten in vielen vernetzten Systemen auf, wie z.B. in Rechen-zentren, in Warenströmen oder in Stromnetzen. Bei innerbetrieblichen Stromnetzen sorgen Lastspitzen für überproportional hohe Kosten, da entweder Überkapazitäten vorgehalten oder Leistungen extern eingekauft werden müssen.

Lösung / Service:
Mittels selbstlernender KI-basierter Verfahren werden mögliche (und teure) Lastspitzen automatisch prognostiziert und über eine angepasste Produktionssteuerung abgefangen. Hierzu werden historische Daten in einem Maschine Learning Algorithmus antrainiert, dessen Ergebnis ein trainiertes Modell ist, das Lastspitzen ca. 6h im Voraus prognostizieren kann. Diese Prognose wird in einem zweiten Schritt in das betriebliche Energiemanagement eingebunden, welches somit aktiv die Energieverbraucher regulieren kann

 

Ergebnis:

  • Kosteneinsparung durch geringere Nutzung externer Energien
  • Transparenz über die tagtägliche Lastentnahme
  • Identifikation von ausschlaggebenden Energieverbrauchern
Use Case Finanzdienstleister

Situation:

Die Plattform soll Kunden, die im Aktien- und Wertpapiermarkt tätig sind, eine Lösung bieten um die neuen / zusätzlichen Trans-parenz- und Meldepflichten (MiFID II, MiFIR, EMIR II) zu erfüllen. Alle Kundentransaktionsdaten – also alle An- und Verkäufe eines Börsentages – sollen validiert, angereichert und in Berichten zusammengefasst werden.

Lösung / Service:

Dateien mit Kundentransaktionsdaten werden gesammelt und an die Plattform übertragen. Hier werden alle Daten validiert, angereichert und entsprechend der EU-Regulatorischer Verordnungen transformiert sowie nach Datenqualitätskriterien geprüft. Dabei werden in jeder Schicht Kennzahlen- und Feedback-Berichte erstellt, um die Kunden über den Prozess zu informieren (Informationen über verarbeitete Daten, gesendete Daten, Fehler, Warnungen).

Ergebnis:

Ein hochautomatisierte Systemlösung, durch die alle regulatorischen Anforderungen erfüllt werden können und indem Berichte und Responses an Regulierungsbehörden automatisch erstellt bzw. verarbeitet werden. Alle Prozesse werden in verschiedenen Ebenen per ETL-Tool (informatica PowerCenter) implementiert, und in eine Oracle RDBMS gespeichert.

Use Case Bank

Situation:
Vor dem Hintergrund der aktuellen Anforderungen an das Risikomanagement musste das bestehende Reportingsystem neu aufgesetzt werden. Gleichzeitig bestand hierdurch die Möglichkeit, eine grundlegende Überprüfung und Optimierung der bereits bestehenden BI-Struktur und Reportings vorzunehmen.

 

Lösung / Service:

Auf Basis einer umfassenden Analyse (gemeinsam mit dem Fachbereich) wurde ein neues BI- und Reporting-Konzept entwickelt, mit der eine vollumfängliche und aktuelle Erfassung aller Chancen und Risiken möglich ist. Durch die Bereitstellung generischer und wiederverwendbarer ETL-Komponenten wurden mehrere DWH-Schichten mit Daten aus mehreren Quellsystemen (operativ und dispositiv) gefüllt. Neben den (technischen) Quellschichten wurde auch ein „Core Data Warehouse“ (als Single Point of Truth) konzipiert und implementiert.

 

Ergebnis:

Geschäftsbezogene DataMarts bilden alle erforderlichen Kennzahlen aus dem DWH ab und stehen nun vielen Nutzern zur Verfügung (ein Singel Point auf True für die Abteilungen). Dabei ist jeder DataMart hoch-performant und kann tagesaktuelle Auswertungen auf Basis aller verfügbaren Daten erstellt werden.

Implementiert wurde auch ein Datenbereinigungssystem, mit denen manuell eingegebene Daten im Hintergrund überprüft werden.

Use-Case-Softwareentwicklung

Situation:

Bevor neue Applikationen in Produktion gehen sind datengetriebene Tests unabdingbar, um die Qualität von Software und Anwendungen sicherzustellen. Dabei bilden personenbezogene Daten in vielen Branchen ein Kernelement der gesamten Geschäftstätigkeit.

Die hier abgelegten sensible und hoch-differenzierten Informationen können aus datenschutzrechtlichen Gründen nicht für das Testing genutzt werden, wodurch keine realistischen Testbedingungen geschaffen werden können.

Lösung / Service:

Entwicklung eines automatisch arbeitenden Testdatengenerators, der aus einem großen Originaldatenset ein repräsentatives Sample erstellt und dieses anschließend pseudonomisiert. Dabei kann aus zwei unterschiedlichen Samplingmethoden ausgewählt werden. Außerdem stehen verschiedene Pseudonomisierungen zur Verfügung.

Zum Schluss wird ein Download der Testdaten und ein kurzer Bericht, mit einer Gegenüberstellung der Original- und Testdaten, zur Verfügung gestellt.

Ergebnis:

Das System wird aktuell mittels Azure Functions als on-demand Website bereitgestellt und befindet sich noch in der Testphase.

https://bit.ly/3EdQFyR

Use-Case-Knowledge-Transfer

Situation:

Durch Open Source und Cloud Computing sind Geschwindigkeit und Vielfalt mit der neue Data Engineering Lösungen sehr hoch. Entsprechend schwierig und zeitaufwendig ist die Bewertung und Eignung neuer Technologien für spezifische Aufgabenstellungen.

Lösung / Service:

Durch einen NLP-basierten Web-Crawler (Natural Language Processing) werden die technisch relevanten Anwenderberichte (Best Practice) effizienter und effektiver zu identifizieren.

Grundlage ist ein bestehender Web-Crawler, der auf dem Framework Selenium basiert (Selenium in Python3) – siehe: https://tinyurl.com/3p4b37zk
Dieser wird auf einer Transformer-Architektur (Deep Learning) aufgesetzut – hier Nutzung von BERT (Google).

Um die Ergebnisse zu verbessern und Trainingszeit / Ressourcen-verbrauch zu verringern wird ein vortrainiertes Language Model von Huggingface genutzt.

Ergebnis:

Das System wird aktuell durch eine vergleichende Bewertung mit zwei parallel arbeitenden Technologien und für unterschiedliche Fragestellungen getestet.

Use-Case-Finanzwirtschaft

Situation:

Für den Day-Ahead-Handel an der europäischen Strombörse – der EEX – , also den An-/Verkauf von Strom für den nächsten Tag, wurde ein Prognosesystem entwickelt, das einem Händler eine automatisierte Handelsempfehlung liefert: „jetzt kaufen“, weil der Preis am nächsten Tag höher sein wird, oder „jetzt verkaufen“, weil der Preis am nächsten Tag geringer sein wird.

Lösung / Service:

Das Handelssystem basiert auf einem ‚Intervallansatz‘, der davon ausgeht, dass der Preis innerhalb eines Zeitintervalls weitgehend stabil ist. Situationsbedingt kommt es zwischen Intervallen aber zu erheblichen Schwankungen. Erst wenn eine solche ‚erratische Phase‘ vorbei ist und der Markt die neue Situation eingepreist hat, stabilisiert sich der Marktpreis und ein neues, ‚preisstabiles‘ Zeitintervall beginnt. Das eigentliche System zur Preisprognose arbeitet parallel auf verschiedenen Modellen, die jeweils statistische Ansätze nutzen (gleitender Durchschnitt, Fourier etc.). Im ‚Competitive Mode‘ wird für die aktuelle Handelsempfehlung jenes Modell identifiziert, das in den letzten X Tagen die beste Performance zeigte.

Ergebnis:

Die Prognose wurde als Assistenzsystem konzipiert und umgesetzt. Das bedeutet, dass der Broker durch eine maschinell erzeugte Handelsempfehlung (kaufen/verkaufen/keine Empfehlung) in Form einer Ad-hoc-Meldung aktiv beim Management seines Portfolios unterstützt wird. Die tatsächliche Kauf- oder Verkaufsentscheidung trifft der Broker.

Lassen Sie uns loslegen!

Wir glauben, dass nur durch ein tiefes und fundiertes Technologie Know-how die erfolgreiche Beratung und Umsetzung in den Bereichen Infrastruktur, Business Intelligence und Analytics möglich ist. 

Das beweisen die unterschiedlichsten Projekte, die wir erfolgreich bei Konzernen, Großunternehmen und mittelständischen Unternehmen durchgeführt haben. 

Entscheidend sind Ihre konkreten Anforderungen an die aktuelle und zukünftig genutzte Technologie. Welches Problem wollen Sie schnellstmöglich lösen? Welches Ziel treibt Sie an?

Wir freuen uns auf Ihre konkreten Anforderungen. 

Dr. Marcus Mende
Director Business Development

Nach oben scrollen