Big Data, Teil 1: Warum Datenströme der Rohstoff von morgen sind

Entscheider, die aus den Fenstern der Chefetagen blicken, sehen eine Big-Data-Lawine anrollen, die laufend Volumen und Fahrt aufnimmt. Abwarten ist keine gute Option. Dabei wären die Analysetechnologien schon einsatzbereit: für Produktion und Handel ebenso wie für Risikoanalyse und Ertragsprognose.

Datenströme gehören künftig zur Materialwirtschaft

Von Heiderose Witte

Ist Big Data nur ein Hype oder ein Megathema, das die Geschäftswelt und die Gesellschaft verändert? Diese Fragen diskutierte eine mit Anbietern, Analysten und einem Anwender besetzte Expertenrunde im Juni 2013 in München: „Big Data gleich Big Business“. Die erste Antwort: Big Data ist weit mehr als IT.

„Big Data beschreibt die industrielle Revolution der Daten – die Verwandlung von Daten in ein Produkt“, erklärte Carlo Velten, Senior Advisor beim Marktforschungsinstitut Experton Group. Laut IBM werden weltweit täglich 2,5 Trillionen Byte an Daten produziert; das ist eine 1 mit 18 Nullen! 90 % des derzeitigen globalen Datenbestands seien folglich in den beiden zurückliegenden Jahren entstanden. Auslöser der Datenexplosion sind laut Velten vier Phänomene: mobile Apps und LBS (Location-based Services), Cloud Computing und SaaS (Software as a Service), Social Media sowie Sensoren und M2M-Kommunikation (Machine to Machine). Der Analyst rechnet damit, dass im Big-Data-Markt 2013 allein in Deutschland ein Umsatz von über 600 Mio. Euro erwirtschaftet wird. 2014 soll er sich dann auf knapp 1 Mrd. Euro erhöhen. Dabei verweist Velten auf Wachstumschancen in Big-Data-Sparten wie der Datenauswertung und -veredelung: „Hier florieren inzwischen Start-ups mit neuartigen Geschäftsmodellen wie Content Mining und Social Media Monitoring, indem sie Stimmungen im Internet in Echtzeit auswerten – basierend auf Daten von Google und anderen Unternehmen.“

Im Zukunftsberuf Data Scientist

Den Big-Data-Markt zeichnete der Analyst als Pyramide, an deren Basis sich die Infrastruktur befindet, während sich an der Spitze das neue Aufgabenprofil der Data Scientists herausbilde. „Data Scientists sind Spezialisten, die die neuen Monitoring- und Analysetools beherrschen und aus aggregierten Daten geschäftlich verwertbare Visualisierungen erzeugen“, erklärt Velten. Solche Datenforscher seien allerdings noch Mangelware. Und so bleiben viele Potenziale ungenutzt, weil Daten brachliegen. Die Unternehmen wissen einfach noch nicht, wie man sie nutzbringend aufbereitet und als Grundlage für Entscheidungen verwendet.

Doch gerade die Analyse ist entscheidend, um aus dem Datenrohstoff wertvolle Erkenntnisse als Entscheidungsgrundlagen herauszufiltern, so Dirk Mahnkopf, Business Advisor beim Analysesoftware-Spezialisten SAS Institute. Er erklärte: „Business Intelligence ist Vergangenheitsbetrachtung; Big Data bedeutet jedoch, die Gegenwart zu verstehen und die Zukunft zu steuern.“ Sein Beispiel: „Wenn die Meteorologen steigende Temperaturen vorhersagen, müssen sich nicht nur Eiscafés auf eine höhere Nachfrage einstellen, sondern auch die Logistiker in der Zuckerindustrie ihre Vorräte aufstocken, um kein potenzielles Geschäft zu verpassen.“

Eine eins mit 23 Nullen
Die schiere Menge an Informatio­nen und ihre Viel­falt wächst täglich. 2012 hat sich das welt­weite Volu­men digitaler Daten auf 25 Zetta­byte gegenüber 2006 ver­zehn­facht, so der BITKOM in einem Leit­faden. Im Jahr 2020 soll das welt­weite Daten­volumen dann über 100 Zetta­byte erreichen: Das sind 100.000.000.000.000.000.000.000 Byte.

Den Gesamtbefund bestätigte auch Dirk Heitmann, Director Business Analytics bei IBM: „Unser Lebens- und Konsumverhalten hat sich grundlegend verändert, fast unsere gesamte Kommunikation und unser Einkauf basieren heute auf datengestützten Verfahren, die Speicherung und Analysen nach sich ziehen.“

Sensoren liefern pausenlos Daten

Doch mit der Zunahme der Daten allein lasse sich das Phänomen Big Data nicht hinreichend erklären, meinte Günther Stürner, Vice President Sales Consulting bei Oracle Deutschland. Viele Algorithmen und Ideen im Umgang mit Datenmassen habe es nämlich bereits vor Big Data gegeben. Was die Sache so besonders mache, seien Phänomene wie Daten mit sehr geringer Dichte.

Serie: Big Data
Teil 1 beginnt mit den sprunghaft ansteigenden Datenströmen – dem Rohstoff der Informationswirtschaft von morgen. Teil 2 schildert Szenarien, in denen Big-Data-Analyse bereits handfeste Ergebnisse in Echtzeit bringt. Teil 3 geht noch einen Schritt weiter und folgt dem Apache-Hadoop-Framework ein Stück in die Zukunft. Ein Extrabeitrag warnt vor Abwarten im Angesicht der Datenlawine. Gerade der Mittelstand könnte Flexibilität als Trumpf ausspielen.

Darunter fallen z.B. die Daten von Sensoren. Hier entstehen enorme Datenmengen durch RFID-Tags, die den Standort von Produkten identifizieren, oder durch Sensoren in Autos, die mit dem Internet verbunden sind und Zustandsdaten an die Hersteller übermitteln. So generiert z.B. der Ford Focus mit Elektroantrieb enorme Datenmengen – im Fahrbetrieb, aber auch beim Parken. Während der Fahrt erhält der Fahrer ständig aktuelle Informationen zu Beschleunigung, Bremsen, Akkuladung und Standort.

Dies ist hilfreich für den Fahrer, aber auch für die Ingenieure bei Ford, an die die Daten ebenfalls zurückfließen. Die Ingenieure können daraus Rückschlüsse auf die Fahrgewohnheiten des Kunden ziehen, z.B. wie, wann und wo er die Akkus auflädt. Und wenn das Fahrzeug parkt, sendet es weiterhin Daten, etwa zum Reifendruck und zum Akkusystem, an das nächste erreichbare Smartphone zur Datenübermittlung.

Wie der praktische Nutzen von Big-Data-Analysen aussehen kann, zeigt Teil 2 dieser Serie.

Nützliche Links