Big Data im Mittelstand: Wann Big Data groß genug für den Mittelstand ist

Mit Transaktions- und Maschinendaten, Bildern, Videos oder gar Nachrichten aus dem Social Web muss die Geschäftsanalytik ganz anders umgehen als mit ein, zwei sauberen Datenbanken. Technologisch sind solche unstrukturierten Quellen aber bereits gut in den Griff zu kriegen – auch für den Mittelstand.

Suchmaschinen sortieren das dynamische Chaos

Von Frank Zscheile

Intuitiv und aus dem Bauch heraus – diese Form der Entscheidungsfindung hat im Mittelstand Tradition. Weil aber auch dort die Datenmengen mehr und mehr werden, vertun Firmen mit dieser Art der Unternehmens­führung eine große Chance. Denn aus Big Data lassen sich trefflich Informationen generieren, die – werden sie sinnvoll aufbereitet – zu fundierteren Entscheidungen führen und so den Unternehmenserfolg sichern.

Technisch ist das Thema Big Data längst im Mittelstand angekommen. Allein, es findet dort bislang nur wenig Widerhall, wie etwa Thomas Froese, ehrenamtlicher Vorsitzender des VDI/VDE-Fachausschusses Big Data, unlängst im VDI-Blog berichtete. Die Unternehmensberatung Deloitte beschäftigte sich Mitte 2014 in einer Studie eingehend mit dem Thema „Data Analytics im Mittelstand“ und stellt darin u.a. dar, wie sich durch Einsatz neuer Technologien bessere Entscheidungsmöglichkeiten ergeben.

Was geben die Bestände her?

Abschreckend wirkt oft bereits der Name: Big Data – das scheint kaum zum Mittelstand zu passen. Wann genau spricht man also von Big Data, ab welcher Größenordnung lohnt sich die Anschaffung einer Analyselösung? Klare Antwort: Das kommt darauf an. Gemeinhin wird Big Data durch „drei V“ charakterisiert: Volume, Velocity (Geschwindigkeit) und Variety (Vielfalt).

  1. Volume (Volumen) meint das zunehmende Datenwachstum.
  2. Velocity (Geschwindigkeit) betrifft dagegen den notwendigen Umgang mit den Daten; auch er wird immer schneller: Während man sich früher turnusmäßig Reports vorlegen ließ, geschehen z.B. Marketing-Analysen mittlerweile praktisch in Echtzeit.
  3. Variety (Vielfalt) betrifft die Art der Daten. Früher hatte man (s)eine Datenbank, und gut war’s. Heute gilt es, heterogene Datenquellen in der Analyse zusammenzuführen: Tabellen, PDFs, Video und Audio, Social-Web-Postings, Mobil- und M2M-Daten.
Serie: Big Data
Teil 1 beginnt mit den sprunghaft ansteigenden Datenströmen – dem Rohstoff der Informationswirtschaft von morgen. Teil 2 schildert Szenarien, in denen Big-Data-Analyse bereits handfeste Ergebnisse in Echtzeit bringt. Teil 3 geht noch einen Schritt weiter und folgt dem Apache-Hadoop-Framework ein Stück in die Zukunft. Ein Extrabeitrag warnt vor Abwarten im Angesicht der Datenlawine. Gerade der Mittelstand könnte Flexibilität als Trumpf ausspielen.

Unternehmen müssen sich bei der Erarbeitung eines Big-Data-Konzeptes zunächst fragen: Geben die vorhandenen Daten überhaupt etwas her, das es wert ist, darüber Analysen zu fahren? Denn auch die größten Big-Data-Analysen liefern nicht unbedingt statistisch wertvolle Daten, wenn die Stichprobe nicht repräsentativ ist.

Größe allein ist also kein Kriterium. Des einen „Big Data“ ist des anderen „Normalvolumen“. Das Gleiche gilt für „Vielfalt“ und „Geschwindigkeit“, die anderen beiden Grundbegriffe der Big-Data-Welt.

In unstrukturierten Daten suchen – und finden

Will man werthaltige Informationen aus dem Wust von Big Data ziehen, sind einige Voraussetzungen erforderlich. Vor allem müssen Unternehmen ihre Datensilos überwinden. Relevante Informationen sind längst nicht mehr an einer einzigen Stelle versammelt, und ohne Einbeziehung aller relevanten Daten kann es keine relevanten Ergebnisse geben. Zu diesem Zweck muss eine Big-Data-Analysesoftware über Konnektoren verfügen, die Daten aus den einzelnen Datenquellen extrahieren und analysieren können.

Des Weiteren sind auch unstrukturierte Daten einzubeziehen. Dazu müssen Begriffe extrahiert und Verknüpfungen zwischen diesen hergestellt werden. Ihr Geld wert ist dann nur eine Lösung, die aus diesen Daten automatisch eine Struktur erzeugt, damit auch klassische BI-Tools (Business Intelligence) „gefüttert“ werden können.

Und schließlich ist die Skalierbarkeit einer Big-Data-Analysesoftware in der praktischen Anwendung ein wichtiger Punkt, vor allem wenn es darum geht, Ergebnisse in Echtzeit zur Verfügung zu stellen. Bei überbordenden Datenmengen werden sonst die Antwortzeiten inakzeptabel lang.

Anbieter und Übersichten
Der Big-Data-Markt boomt und hat sich der Experton Group zufolge von 2014 auf 2015 glatt verdoppelt: auf 723 Mio. Euro – und die Analysten gehen von einer weiteren Verdoppelung bis 2018 aus. Die Big Data Vendor Benchmark 2015 (Deutschland) gibt es bei T-Systems als PDF zum Download; die Ausgabe 2016 ist in Vorbereitung. Allein die Benchmark of Big Data Analytics Vendors zeigt, dass auf diesem Gebiet alles vertreten ist, was Rang und Namen hat, HP und Microsoft ebenso wie die Leader IBM, SAP und Oracle. Als Rising Star nennen die Experton-Experten Exasol aus Nürnberg. Eine Übersicht der derzeit führenden Hersteller von Technologien für die Big-Data-Suche gibt der aktuelle Gartner Magic Quadrant Enterprise Search vom August 2015. Die Ergebnisse hat der französische Softwarehersteller Sinequa, der dort als Leader eingestuft ist, auf seiner Webseite online parat (nach Anmeldung).

Faustregeln für die Umsetzung

Das Analystenhaus IDC hat nach Analyse eines Big-Data-Projekts beim Pharmakonzern AstraZeneca die folgende Ratschläge zusammengestellt:

  • Einen aussagekräftigen Prototyp aufsetzen: AstraZeneca entwickelte zunächst eine einfache Version der Analysesoftware, um deren Funktionsweise in einem abgegrenzten, aber ausreichend großen Teilbereich zu testen.
  • Auf Flexibilität auslegen: Wann immer möglich sollten Unternehmen eine agile Entwicklungsmethodik und agile Strategien anwenden. So können die Entwickler das Projekt und noch die spätere Nutzung des Systems nahe an den Bedürfnissen der Anwender halten.
  • Die richtigen Software- und Servicepartner aussuchen: Jede Branche, ja jedes Geschäft bringt eigene Anforderungen und Bedürfnisse mit sich, die wichtig sind. Es braucht also Projektpartner, die damit vertraut sind. Bei AstraZeneca fiel die Wahl auf Spezialisten für die IT-Aufbereitung von Pharma-Ontologien und auf Webspezialisten für die Gestaltung des User Interfaces (eher unerwartet, aber sehr populär bei den Anwendern).
  • Ausreichende technische Ressourcen: Big-Data-Technologien sind mittlerweile gut ausgereift, aber sie wollen beschafft und gemanagt werden. Auch wenn der Index einer Suchmaschine im Vergleich zur ursprünglichen Datenmenge sehr komprimiert ist, so ist es doch ratsam, von der Grid-Architektur Gebrauch zu machen und das Grid auf die meist rasant wachsende Datenmenge und die Anzahl der Anwender auszulegen.

Fazit: Mit den Daten von heute arbeiten

Das bereits aufgebaute BI-Instrumentarium zur Geschäftsanalytik muss mit Anschaffung neuer Big-Data-Analysetechniken übrigens nicht zwangsläufig abgelöst werden. Es geht für mittelständische Unternehmen eher darum, eine agile Lösung zu finden, die Daten aus vielen Quellen analysiert und so aufbereitet, dass sie von (vielen) unterschiedlichen Applikationen genutzt werden können. Eine davon ist eben die BI-Software. Transaktionale Systeme des bisherigen BI-Instrumentariums können bzw. sollten z.B. weiter eingesetzt werden. Nicht mehr aktiv genutzte Altsysteme (einschließlich „fossilisierter“ transaktionaler Systeme) sollten durch neue Technologie abgelöst werden.

Nützliche Links