Big Data: Verwendung bisher ungenutzter Datenquellen für Analyse und Reporting

Worum geht es?

„Think Big“

 

Die „offizielle“ Definition von Gartner lautet: „Big Data are high-volume, high-velocity, and/or high-variety information assets that require new forms of processing to enable enhanced decision making, insight discovery and process optimization”.

 

Im Gegensatz zum traditionellen IT-getriebenen BI-Ansatz, den man als TopDown bezeichnen kann, steht bei Big Data als BottomUp Ansatz die Fachseite im Vordergrund. Hier geht es darum explorativ und mit Ad-Hoc Abfragen neue Fragestellungen an die Daten zu finden, um neue Business-Ideen gewinnen zu können.

 

Wir glauben, dass der reine Big Data Ansatz eher die „Datability“ als Ziel haben sollte, also die Fähigkeit, große Datenmengen in hoher Geschwindigkeit verantwortungsvoll und nachhaltig zu nutzen. Um BI und Big Data vereinen zu können, werden neue Organisationsformen und Herangehensweisen benötigt.

 

Wie können wir helfen?

Für Big Data sehen wir folgenden Angriffsplan, den wir in allen Phasen unterstützen:

 

  • Zugriff auf Big Data Quellen
    Zunächst müssen die Quelldaten gelesen und analysiert werden können. Durch die neuen Technologien entstehen hier deutliche Vorteile, da die Daten meist in den Quellen verbleiben können und nicht mehr kopiert werden müssen. Ebenso wird hier oftmals der direkte Zugriff der Fachseite auf die Daten möglich.

 

  • Analyse der „Roh“-Daten
    Daten werden „as is“ in die Analytics-Landschaft gebracht und mit Daten aus dem Unternehmens-DWH kombiniert. Dabei werden aufwändige Konvertierungen und Umwandlungen in die strukturierte Welt vermieden. Es wird direkt experimentell auf die Quelldaten – unter Umständen – auch mehrerer Systeme zugegriffen.

 

  • Verbesserung des DWH
    Oftmals stellt die Gesamtperformance des DWH einen Bottleneck dar. Ebenso sind relativ hohe Administrationskosten ein Treiber, um einfachere neue Systeme einzusetzen. Die Vereinfachen oft die Administrationsaufwände (Ressourcen und Geld) um ein Vielfaches und gewährleisten eine Skalierbarkeit für die Zukunft.

 

  • Kostenreduktion durch neue Technologien
    Die Datenflut bewirkt eine Zunahme der Notwendigkeit, diese Daten kostengünstig abspeichern zu können. Des Weiteren werden Daten lieber „für den Fall …“ gespeichert als gelöscht. Eine Ablage im herkömmlichen Verfahren eines Data Warehouse ist dabei oft zu teuer. Daher empfiehlt es sich neue Technologien wie z.B. Hadoop einzusetzen, um diese Anforderung mit günstiger Hardware realisieren zu können.

 

  • Analyse von Streaming Data
    Für die Verarbeitung der großen Masse an Sensordaten sind klassische BI Systeme nicht gedacht, da hier nahezu in Echtzeit Reaktionen auf die Quelldaten erfolgen müssen. Sobald entsprechende die Daten beschreibende Modelle gefunden sind, kann dies zu erheblichem Mehrwert führen (Stichpunkt Industrie 4.0).

 

Zum Download unserer Whitepaper

Big Data