Big Data für den Mittelstand, Teil 1: Wer sich Big-Data-Analysen leisten kann

In einer vernetzten Welt werfen Autos, soziale Netzwerke oder Wetterstationen unablässig Daten aus, die eine Kombination aus fähiger Hardware und cleverer Software blitzschnell für die Analyse aufbereiten kann. Von fertigen Big-Data-Appliances kann speziell der reaktionsschnelle Mittelstand profitieren.

Jede Ampelschaltung liefert Geschäftsdaten

Von Sabine Philipp im Auftrag von Oracle Deutschland

Laut einer KPMG-Umfrage rechnen 61 % der 350 Befragten aus deutschen Unternehmen bis zum Jahr 2020 mit neuer Konkurrenz aus einer anderen Branche und 85 % glauben, dass in ihrem Geschäft auch der Innovationsdruck steigen wird. Haupttreiber dieser Entwicklung ist der überproportionale Zuwachs und die bessere Verarbeitbarkeit von unstrukturierten Daten, z.B. von Sensor- oder Vertriebsdaten. Big Data gilt als der Rohstoff des 21. Jh. Jetzt braucht die Wirtschaft die passenden Instrumente, um aus dieser vielfältigen und schnellen Informationsflut Gewinn zu ziehen.

Big Data ist ein Thema, das sich technologisch aus der Kommunikation ableitet: Erstens produzieren immer mehr Stellen pausenlos neue Daten – Kameras, Scanner und Temperaturfühler ebenso wie Menschen in sozialen Netzwerken. Zweitens bleiben diese Daten nicht isoliert, sondern sind zunehmend vernetzt. Eine Welt, die derart verbunden ist, bietet zahllose Möglichkeiten Informationen zu gewinnen, zu filtern und zu kombinieren, um zu oft überraschenden Erkenntnissen zu gelangen.

Serie: Big Data für den Mittelstand
Teil 1 erklärt das Prinzip: Wie man massenweise heterogene Daten für die Analyse nutzbar macht. Teil 2 geht auf die Frage nach der Sicherheit ein – besonders wenn Cloud-Dienste mit im Spiel sind.

Zwar sind beim Stichwort Big Data zuerst Großunternehmen hellhörig geworden, doch das täuscht: Für Konzerne ist Big Data grundsätzlich nicht anders als für einen typischen Mittelständler. Tatsächlich ist die Analyse beim einen oft so komplex wie beim anderen.

Allerdings hat der Mittelstand einen gewaltigen Vorteil im Umgang mit den Ergebnissen: Er tut sich in der Regel sehr viel leichter, aus seinen Befunden Entschlüsse abzuleiten und diese auch schnell und flexibel umzusetzen. Der Mittelstand kann bei Big Data seine Beweglichkeit als Trumpf ausspielen und in seinem jeweiligen Marktsegment reagieren, während anderswo die Chefetagen noch austüfteln, ob und welche Prozesse sie neu strukturieren sollten.

Gewinnen, konsolidieren, analysieren

„Viele Mittelständler haben bereits Datenbanken in Betrieb. Das ist schon einmal eine gute Grundlage“, sagt Matthias Weiß, Direktor Mittelstand Technologie, Oracle Deutschland. „Sie haben zwar manchmal Schwächen beim Reporting, der Analyse und bei Prognosen; außerdem ist das Wissen über Kunden und Produkte oftmals ausbaufähig. Die Integration der vorhandenen strukturierten Daten mit anderen neuen, oftmals unstrukturierten Datenquellen verlangen neue Vorgehensweisen. Die Verbindung von Hadoop, NoSQL-Datenbanken und bestehenden relationalen Datenbanken bieten optimale Voraussetzungen für die Implementierung neuer Big-Data-Systeme mit signifikanten Geschäftsvorteilen. Moderne Techniken, optimierte Zugriffe und Werkzeuge bieten Chancen für Predictive bzw. Advanced Analytics, um Vorteile für das Unternehmen zu erzielen. Schnellste Analysen in Echtzeit werden durch In-Memory Technik ermöglicht.“

verweis=http://www.oracle.com/de/mittelstand www.oracle.de/

Matthias Weiß ist seit 1990 für die ORACLE Deutsch­land B.V. & Co. KG tätig. Im Laufe der Jahre hatte er dort ver­schie­dene tech­nische und Manage­ment-Funk­tionen im Groß­kunden- und Part­ner­bereich inne. In­ner­halb des Unter­nehmens ist er für „Tech­no­logie im Mittel­stand“ zu­ständig. Ein Schwer­punkt seiner Tätig­keit ist die stra­te­gische IT-Beratung und Partner­unterstützung.


ORACLE Deutschland B.V. & Co. KG, Riesstraße 25, 80992 München, 0800-1824138, dir_ie@oracle.com, www.oracle.de

Bei der Auswahl der Datenhaltungssysteme rät Weiß darauf zu achten, dass diese Datenbanken transaktionssicher sind und die wichtigen Geschäftsdaten systemübergreifend persistent bleiben.

Mithilfe von passenden Analysewerkzeugen kann der Nutzer Daten schließlich über einfach nutzbare Oberflächen in für ihn passenden, individuellen Variationen abfragen, natürlich auch mobil. Auf diese Weise werden oft ganz neue Zusammenhänge sichtbar.

Information aus allen Quellen
Ein praktisches Beispiel: Ein Unternehmen stellt Regenschirme her. Es wertet also die Vertriebs- und Wetterdaten der letzten Monate sowie die Einträge aus sozialen Netzwerken zu seinem Produkt aus. Dabei wird deutlich, dass die Verkaufszahlen im November steigen und dann ganz abrupt abfallen. Aus den Wetterdaten ergibt sich, dass der November nicht nur regnerisch, sondern sehr stürmisch war; das Social Web zeigt, dass sich Kunden in den Foren darüber beschwerten, dass ihre Schirme dem Wind nicht standhalten. Nun kann der Hersteller z.B. sein Produkt optimieren und im (Online-)Marketing verstärkt damit arbeiten, dass seine Qualitätsware auch bei Böen knickfest ist. Auf Flughäfen und in Branchen, die ebenfalls große Publikumsmengen und Besucherströme bearbeiten, geschehen derartige Analysen z.T. schon nahezu in Echtzeit.

Massenverarbeitung in der Cloud

Zum Einsatz kommen dabei Technologien wie das Hadoop-Framework. „Hadoop ist ein Open-Source-Software-Framework, das im Verbund mit NoSQL-Datenbanken ideal geeignet ist, unstrukturierte Daten zusammenzufassen. Allerdings sind die Implementierung und die Pflege solcher Systeme recht aufwendig“, erklärt Weiß. Der Experte rät daher in den meisten Fällen zu einer fertigen Big-Data-Appliance. Alle benötigten Komponenten sind vorkonfiguriert und eine solche Lösung erfordert weitaus weniger technische Vorkenntnisse im Betrieb. Das Risiko, insbesondere bei Updates und Patching, sinkt deutlich und für alle Komponenten – von der Hardware bis zur Software – gibt es einen einheitlichen Support.

Dann stellt sich noch die Frage nach der Hardware. „Der Mittelstand arbeitet häufig mit Intel-basierenden Maschinen mit 64 oder 128 GByte Memory“, sagt dazu Matthias Weiß. „Wer Big-Data-Analysen mit In-Memory Techniken für Real-Time-Analysen betreiben will, benötigt aber Maschinen mit sehr viel mehr Hauptspeicher und ein Betriebssystem, das auch mit 15, 30 oder mehr Terabyte Memory umgehen kann.“ Wo Geräte und entsprechende Fachkenntnisse fehlen, empfiehlt der Experte, für Teilbereiche Cloud-Lösungen zu nutzen; den Rest übernehmen strukturierte Datenbanken – so wie bisher, nur mit optimierten Werkzeugen.

Nun verhält sich gerade der Mittelstand gegenüber der Cloud großteils vorsichtig. Und auch bei der Nutzung von Big-Data-Systemen gibt es durchaus Risiken – besonders beim mobilen Zugriff. Im zweiten Teil dieser Serie geht es daher um die sichere Nutzung von Big Data.

Nützliche Links

Zu Hadoop und NoSQL-Datenbanken gibt es von Oracle zwei gute, allerdings englischsprachige Videos: „Understanding the Basics of Hadoop“ und „Comparing HDFS and NoSQL“. Dort findet man, ebenfalls auf Englisch, auch die technische Einführung zu Oracle Predictive Analytics.