IT-Wachstum, Teil 1: Wann wachsende Unternehmen sich selbst überholen

Hinter nahezu jedem geschäftlichen Ablauf steht eine Datenbank. Das bekommen Unternehmen oft gerade dann empfindlich zu spüren, wenn das Geschäft floriert und das Datenbanksystem an seine Grenzen stößt. Es gibt aber einige elegante Lösungen, die IT-Prozesse auf die Höhe des Geschäfts zu bringen.

Dann läuft es wieder wie am Schnürchen

Von Sabine Philipp im Auftrag von Oracle Deutschland

Schnell wachsende Unternehmen haben oft ein Problem: Die IT hält nicht mit der Firmenentwicklung Schritt. In der Folge laufen die Prozesse langsamer, und die Mitarbeiter können nicht so durchstarten, wie sie eigentlich wollen. Dabei muss das IT-Wachstum keineswegs proportional zum wirtschaftlichen Wachstum der Firma steigen. Es gibt eine ganze Reihe interessanter Lösungen, die auf den Datenbanksystemen aufsetzen und die Prozesse schneller und übersichtlicher gestalten. Noch besser: Viele Features sind bereits in der Standardausführung enthalten – oder lassen sich unkompliziert dazubuchen. Oft bieten auch Systemhäuser eigene, innovative Lösungen an, die auf den Systemen der großen Datenbankhersteller aufbauen.

Diese zweiteilige Serie zeigt, wie Unternehmen mithilfe von Datenbankoptimierung und tauglichen Werkzeugen nach oben skalieren – und zugleich ein sicheres Fundament für weiteres Wachstum legen. Im ersten Teil geht es um das Tuning bestehender Systeme; der zweite Teil wird darlegen, wie ERP-Funktionen und andere Business-Anwendungen die Prozesse rasant verbessern können und ob Cloud-Lösungen hierfür sinnvoll sind.

Datenmanagement optimieren

Dass das Datenmanagement in vielen Unternehmen eine Dauerbaustelle ist, zeigen entsprechende Untersuchungen mit verstörender Regelmäßigkeit. Der IDC-Studie „Big Data und Datenstrategien in Deutschland 2013“ zufolge klagt ein Drittel der IT- und Fachbereichsentscheider über einen zu langsamen Datenzugriff; für 30 % ist außerdem der Schutz der Daten nicht ausreichend, 28 % bemängeln veraltete Daten, während ebenso viele Unternehmen nach eigenen Angaben unter Speicherknappheit leiden. Bei derartigen Zahlen in der Fertigung würde das Unternehmen dem Hersteller seine Maschine an den Kopf werfen. In der IT hat man sich darauf eingestellt, wie auf ein Dauerleiden: Sämtliche Punkte wurden laut IDC in ähnlicher Form auch schon in der Befragung vom Vorjahr genannt.

Die Mängelliste macht deutlich, dass sich die genannten Schwächen erst nach und nach entwickeln. Und je besser ein Unternehmen auf Expansionskurs ist, desto heftiger bekommt es seine Datenprobleme zu spüren. Das pure Datenaufkommen wächst nicht nur mit dem Umfang des Geschäfts, sondern – unabhängig davon – absolut. Es schlägt erwartungsgemäß irgendwann auf die Performance der Systeme (und erhöht dabei noch einmal den Administrationsaufwand). Hier können Verfahren wie Datenbankkomprimierung oder Deduplikation oft Abhilfe leisten.

Serie: IT-Wachstum
Teil 1 öffnet die Haube und sieht nach, wie man bestehende Datenbanksysteme so tunen kann, dass die IT mit dem florierenden Geschäft mithält. Teil 2 geht noch einen Schritt weiter und montiert Business-Anwendungen zum Durchstarten. Im SaaS-Betrieb gibt es passgenaue ERP- und CRM-Module.

Ausmisten, komprimieren, freischalten

Fähige Datenbanksysteme verfügen in der Regel über effiziente Komprimierungsmechanismen oder bieten optionale Funktionalitäten an, mit deren Hilfe man die Datenkomprimierung optimieren kann – und die reale Auswirkung auf die Zugriffsgeschwindigkeit testen.

Deduplikation gehorcht einer an sich simplen Logik: Das System kontrolliert, ob eine Datei mehrfach existiert. Ist das der Fall, speichert sie diese nur einmal ab. Die anderen Datensätze enthalten dann nurmehr den Verweis auf die einzige Datei. Eine solche „Entdoppelung“ ist besonders wirksam bei Unternehmen, die mit einem hohen Anteil an unstrukturierten Dateien arbeiten, darunter auch die lustigen PowerPoint-Präsentationen, die fast überall doppelt und dreifach als E-Mail-Anhänge gespeichert sind.

Eine wichtige Rolle für die Zugriffsgeschwindigkeit spielen die Indizes. Sie sagen der Datenbank, an welche Stelle auf der Festplatte sie springen muss, um einen bestimmten Datensatz zu finden. Ohne diese Navigationssysteme müsste das System unsinnig lange die gesamte Datenbank durchlesen. Ein gutes Datenbanksystem kann auch die Indizes komprimieren. Darüber hinaus wäre es wichtig, unnötige Datenbankzugriffe zu vermeiden. Gute Anbieter haben zu diesem Zweck spezielle Optimierer eingerichtet.

Wer über eine Lösung verfügt, die solche Funktionen bereits integriert oder – was öfter der Fall ist, als man glaubt – zum Freischalten parat hält, ist fein raus. Denn es bedeutet in der Praxis, dass das Datenbanksystem noch eine ganze Weile mit der Entwicklung skalieren kann. Angesichts des steten Datenwachstums gelangt jedoch jedes Unternehmen früher oder später an den Punkt, an dem es in bessere Speicherressourcen investieren muss. Dann sollte man ein wirksames Datenmanagement am besten gleich mit ins Kalkül ziehen.

Serie: Storage im Mittelstand
Teil 1 rät zu einem vernünftigen Storage Management, bevor die Big-Data-Welle die Kapazitäten auswäscht. Teil 2 erklärt, wie eine zukunftstaugliche Speicherlösung ausgelegt ist und welche Funktionen unabdingbar sind.

Fazit: Praktische Werkzeuge, neue Funktionen

Es gibt etliche Möglichkeiten, seine bestehenden Datenbanken schneller zu machen – vorausgesetzt, die jeweilige Lösung ist flexibel genug ausgelegt. Der beste Praxistipp besteht, darin, noch einmal einen genauen Blick auf das Lizenzmodell zu werfen: Oft genug wurden (bereits inklusive) Funktionalitäten seinerzeit nicht aktiviert, weil (noch) kein Bedarf bestand. In etlichen anderen Fällen gibt es passende Extras und Erweiterungsmöglichkeiten, die sich gut mit den angeschlossenen Systemen vertragen.

Eine weitere Möglichkeit, das Geschäft an die wachsenden Anforderungen des Geschäfts anzupassen, sind spezielle Business-Anwendungen, die direkt auf der Datenbank aufsetzen und helfen, die Prozesse konkret zu verbessern. Dabei haben Software-as-a-Service-Module die zusätzlichen Vorteile, dass man sie sehr viel schneller einführen kann, dass sie weniger Rechenkapazität benötigen – und dass sie von vornherein skalierbar sind.

Wann so etwas sinnvoll ist, erklärt Teil 2 dieser Serie.

Nützliche Links