RZ-Update 2018: Wie RZ-Betreiber auf den In­no­va­tions­druck reagieren

Die Lebens­zeit eines Re­chen­zen­trums wird nicht selten in Deka­den ge­mes­sen. Doch die Tech­no­lo­gie darin und die An­for­de­run­gen ver­än­dern sich stän­dig. Jedes Jahr kom­men neue Trends und The­men auf. Und das Tem­po wird im­mer bru­ta­ler. Die Fra­ge ist: Wie stel­len sich Data­center heute für mor­gen auf?

Zwischen Trend und Notwendigkeit

Von Axel Oppermann

Schon lange sind IT-Abteilungen nicht mehr nur dafür verantwortlich, dass in den Racks die Lichter – und davon immer mehr – blinken. Sie sorgen längst dafür, dass die Lichter im Unternehmen nicht ausgehen: Die IT-Abteilungen müssen in der Lage sein, das Geschäft zu ermöglichen; das ist ihre Aufgabe. Hierfür müssen sie nicht nur sichere und kosteneffektive IT-Services bereitstellen, die den Geschäftsanforderungen entsprechen. Sie müssen vielmehr immer einen Schritt voraus sein, Trends antizipieren, wenn sie das Geschäft in die Zukunft führen wollen.

Die wirkliche Rolle, die die IT im Unternehmen hat, besteht darin, eine Infrastruktur zu schaffen, die bessere Prozesse, einen besseren Kundenservice und mehr ermöglicht. Die Entscheidungen, die zu diesem Zweck heute getroffen werden, haben großen Einfluss auf die Zukunft des Unternehmens. Dabei müssen neue Techniken und Services nicht nur eingeführt werden. Sie müssen verwaltet und weiterentwickelt werden.

Herausforderung für RZ-Verantwortliche

Bei all den technischen Entwicklungen und Themen, den realen und zugedichteten Aufgaben der IT: Das eigene Datacenter ist bei vielen Unternehmen noch immer ein zentraler, wichtiger Bestandteil der IT-Strategie. Das Management, das Verwalten und Bereitstellen integrierter Infrastrukturen ist eine Kernaufgabe. Klar ist hierbei: Das Thema Cloud, insbesondere Hybrid Cloud, steht schon seit Langem auf der Tagesordnung, ebenso IoT– (Internet der Dinge) und Enterprise-Mobility-Technologien etc. Die Ausdehnung des Rechenzentrums zur Edge, also das Verlagern der Rechenleistung an den Ursprung der Datengenerierung, wird 2018 noch an Relevanz gewinnen und ganz neue Herausforderungen schaffen. Und die Aufgaben erweitern.

Für nahezu alle Mittelständler und Großunternehmen haben sich die Anforderungen an das Management der IT-Infrastrukturen sowie den Betrieb des Datacenters massiv gesteigert. Hinzu kommt: Fehlendes Fachwissen, veraltete und starre IT-Infrastrukturen und zu niedrige IT-Budgets sind laut den Befragten einer aktuellen NetApp-Umfrage die größten Hindernisse im Rechenzentrum.

Die konkreten Herausforderungen liegen allerdings in der Modernisierung der Rechenzentren an sich, in der Optimierung bzw. Rationalisierung der Arbeitslast. Auch wenn allein diese Themen schon arbeitsalltagsfüllenden Charakter haben, kratzen wir hier nur an der Oberfläche. Zugleich prasseln zahlreiche Zielkonflikte und Herausforderungen auf die Verantwortlichen ein: Automatisierung. Sicherstellung der Services. Security. Verbrauchsgesteuerte IT, As-a-Service-Beschaffung und die Übertragung auf Chargeback-Zahlungsoptionen, also das Entwickeln von geschäftsrelevanten Metriken für alle Service- und Pay-as-you-go-Optionen – dies alles im Kontext eines permanenten Mappings von Technologieausgaben auf die Geschäftsergebnisse. Und. Vieles. Mehr.

Strategie, Taktik, operative Umsetzung

Für nahezu jedes mittelständische und größere Unternehmen besteht derzeit akuter Handlungsbedarf: „Modernisierung, Neubau, Colocation oder Outsourcing?“, lautet neben „Was zuerst?“ und „Wann?“ die zentrale Frage. Aber auch das Wie, insbesondere bezogen auf die oft prekäre Budgetsituation und die personellen Ressourcen, ist ein nicht seltenes Problem. Die Ansätze zur Bewältigung bzw. zur Identifikation der individuell bestmöglichen Lösungen lassen sich klassisch in drei Bereiche einteilen: Strategie, Taktik, operative Umsetzung. Also das klassische Spannungsdreieck.

  • Zu den strategischen Themen und Fragestellungen zählt im Jahr 2018 weiterhin der geografische Standort des Rechenzentrums. Zwar ist er weniger wichtig als vor einigen Jahren; dennoch darf man ihn nicht vernachlässigen. Darüber hinaus sind, wie bereits erwähnt, die Rolle von Edge Computing sowie das Thema Automatisierung respektive der Grad der Automatisierung basierend auf Quasi-KI- bzw. autonomen Ansätzen entscheidend. Also der gedankliche Umstieg vom Reagieren auf proaktives, aktives, agiles und/oder automatisiertes Handeln auf Basis von Analytics-Funktionen und dergleichen.
  • Zu den taktischen Herausforderungen zählt, das Application Performance Interface (API) als Grundlage des eigenen Ökosystems zu gestalten, also die Ein- und Anbindung Dritter. Exemplarisch sind hier externe Ökosysteme oder Plattformen zu nennen, Communities, Marktplätze, Kunden, Lieferanten etc. In diesem Zusammenhang ist die Gestaltung hin zum Nutzer und eine permanente Weiterentwicklung der sogenannten Nutzererfahrung bzw. des „Erlebnismanagements“ relevant. Aber auch die Bewertung und der Umgang mit Themen wie Schatten-IT und deren Einbindung bzw. Handhabung sind zurzeit taktische Fragen.
  • Zu den operativen Themen gehört momentan besonders das Bereitstellen des richtigen bzw. relevanten Services in der richtigen Zeit zu einem Preis, der sich direkt und indirekt auf die Geschäftsergebnisse „rechtfertigen“ lässt bzw. diese erst ermöglicht. Dies geschieht vor dem Hintergrund einer permanenten Kapazitätsoptimierung und der Art der Bereitstellung – also der jeweils idealen Mischung aus On-premises-, Colocation-, Hosting-, Public- und Private-Cloud-Lösungen.

Ausgangspunkt: das Rechenzentrum

Im Zusammenhang mit den derzeitigen und zukünftigen Herausforderungen sollte auch bzw. zunächst die Frage gestellt werden, was ein modernes Rechenzentrum auszeichnet. Anders gefragt: Was ist ein modernes Datacenter?

Eine eineindeutige Antwort hierauf wird es nicht geben. Das moderne Rechenzentrum kann als ein Aufbruch in eine neue Generation der Unternehmens-IT verstanden werden. Als die Grundlage digitaler Unternehmen. Vielleicht auch als Synonym für die digitale Transformation. Diese wird getrieben durch die rasche Weiterentwicklung, zum Beispiel zu Cloud-Technologien, und der wirtschaftlichen Notwendigkeit, neue Geschäftsmodelle oder Prozesse einzuführen. Wie gesagt: Der geografische Ort ist weiterhin relevant, jedoch wird das moderne Rechenzentrum im Jahr 2018 nicht mehr als physikalischer Ort gesehen, konzipiert oder betrieben. Es handelt sich um ein Konstrukt, das die durch ein Unternehmen benötigten Infrastrukturen bedarfsgerecht vereint bzw. bereitstellt.

Rechenzentren 2018-01.jpg

Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe „Rechen­zentren und Infra­struktur“. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Also: Was muss jetzt gemacht werden, um das eigene Rechenzentrum auf Vordermann zu bringen, um die derzeitigen und zukünftigen Anforderungen zu erfüllen? Was sind Notwendigkeiten und was sind Spielereien? Sollen wir bei der Klimatisierung anfangen oder bei der Verdichtung im Kontext des Leistungsbedarfs des Rechenzentrums? Ist der tatsächliche Leistungsbedarf überhaupt bekannt? Welche Priorität hat eine auf künstlicher Intelligenz bzw. mathematischen Formeln beruhende Automatisierung gegenüber neuen Sicherheitskonzepten? Und: Was bietet der Markt – heute und in naher Zukunft? Beziehungsweise: Kann der Markt die individuellen Anforderungen überhaupt befriedigen?

Markt mit konkurrierenden Trends …

Beim Betrachten des Marktes sind einige Trends zu erkennen. Wichtig ist: Egal wie nachhaltig ein jeder Trend ist, im Einzelfall muss auf Ebene des Unternehmens bewertet werden, was individuell die richtige Lösung ist.

Ein Beispiel: Laut den Marktforschern von QYReports wird der SDDC-Markt (Software-defined Datacenter) im Zeitraum 2017 bis 2022 mit einer durchschnittlichen Rate von 20 % wachsen. SDDC steht für ein Konzept, das es RZ-Betreibern ermöglicht, ihre Infrastruktur nahtlos zu skalieren, Netzwerk und Serverspeicher zu vereinheitlichen sowie alle Ressourcen vereinfacht zu verwalten. Dieser Ansatz gilt als kosteneffizient, ermöglicht Skalierbarkeit, bietet Flexibilität und erleichtert Admins die Arbeit. Software-defined Datacenter haben den Vorteil, dass sie auf jeder beliebigen Hardware implementiert werden können und auch mandantenfähig sind. Der Markt gliedert sich produktbezogen primär in die Bereiche SDN (Software-defined Networks), SDS (Software-defined Storage) und SDC (Software-defined Computing). Klar, werden Sie jetzt sagen, die softwarebasierte Steuerung eines virtualisierten Rechenzentrums ist spätestens seit 2013/14 kein neues Thema. Aber der Spielraum für Optimierung ist noch da und wird zunehmend vereinnahmt; gerade durch mittelständische Unternehmen.

MW-KommRZ1.2018.ID04-Fujitsu ETERNUS AF250 S2 with Drive Enclosure.jpg
Mit dem neuen AF250 S2 macht Fujitsu All-Flash auch für kleine und mittlere Digitalisierungsprojekte verfügbar. (Bild: Fujitsu)

Das Ganze etwas konkreter erklärt, und zwar am Beispiel SDS im Kontext eines weiteren Trends, nämlich All-Flash-Lösungen: Weitläufig gilt, dass All-Flash eine Menge an Problemen im Rechenzentrumsdesign lösen kann. Die Analysten von Gartner gehen sogar davon aus, dass bis zum Jahr 2021 bereits 50 % der Rechenzentren SSAs (Solid-State Arrays) für High-Performance-Computing und Big-Data-Workloads einsetzen werden. Was ausgehend von der derzeitigen Marktdurchdringung von etwa 10 % enorm ist. Ausschlaggebend für den RZ-Erfolg von Flash-Speicher sind Fortschritte in der Technologie und gleichzeitig geringere Preise bei einer immer größeren Auswahl. Exemplarisch seien die neuen Eternus-All-Flash- und Hybrid-Systeme von Fujitsu oder Intel genannt. Doch wenn – etwa aus Budgetgründen – ein kompletter Umstieg auf Flash nicht möglich ist, dann kann eben Software-defined Storage eine günstige und effiziente Alternative sein.

… und der Aussicht auf neue Trends

Wird aber nun einerseits von SDDC und andererseits von SDS gesprochen, muss im Zusammenhang mit der Speicherthematik auch von Intent-based Networks (IBNs) und auf der anderen Seite von Persistent Memory gesprochen werden. Zunächst zu Persistent Memory: Hierbei handelt es sich um eine Technologie, die die Lücke zwischen Flash und dem Arbeitsspeicher schließen soll. Die genutzten NVDIMM-Module sind kompatibel zum normalen DDR4-Arbeitsspeicher und können alternativ in einen Teil der vorhandenen Steckplätze eingebaut werden (daher: „Memory“), der Inhalt bleibt auch beim Herunterfahren des Systems erhalten (deswegen: „Persistent“) und ermöglicht enorm flotte Starts. Die leistungsfähigere Anbindung an den Prozessor soll eine deutliche Verringerung der Latenz ermöglichen und erhöht somit die Verarbeitungsgeschwindigkeit datenintensiver Arbeitslasten, etwa bei Datenbanken, Big-Data-Anwendungen, Software-defined Storage, RAID-Cache oder In-Memory-Datenbanken. Unter anderen setzt HPE schon seit geraumer Zeit auf Persistent Memory.

MW-KommRZ1.2018.ID04-intent-based-networking.jpg
Cisco versteht Intent-based Networks als Übersetzung (Translation) von Geschäftszielen, die via Policies im gesamten Netzwerk umgesetzt werden (Activation). Eine Kontrollschleife (Assurance) soll sicherstellen, dass das durchgängig klappt. (Bild: Cisco)

Kommen wir zurück auf das Intent-based (absichtsbasierte) Network, das in gewisser Weise auf Software-definierten Netzwerken aufbaut. Die Intentions- bzw. absichtsbasierte Vernetzung hat sich zu einem Top-Schlagwort der Branche entwickelt. Im Kern läuft das Thema auf das Versprechen voll automatisierter Netzwerke hinaus. Geschäftsziele und Vorgaben werden in Netzwerkrichtlinien „übersetzt“ und umgesetzt. Spezielle Funktionen prüfen kontinuierlich, ob das Netzwerk wie vorgesehen funktioniert. Grundlage sind maschinelles Lernen und Analytik.

IBN-Vernetzung wird als revolutionäre Technologie positioniert und postuliert, besonders getrieben von Cisco. Zunächst war man stark fokussiert auf die eigentlichen Unternehmensnetzwerke, derzeit baut Cisco mit einem DNA-Center-Management-Dashboard, neuen Catalyst-9000-Switches und Sicherheitsanalysen sein Portfolio stetig aus. Im Januar 2018 wurden unterschiedliche „Assurance“-Funktionen ins Portfolio aufgenommen, die Probleme schneller erkennen und Ausfälle vermeiden sollen. Im Blickpunkt stehen die Gewährleistung von Sicherheit und Compliance sowie eine kontinuierliche Verifizierung des Netzwerkverhaltens.

Juniper Networks spricht in diesem Kontext auch von Self-driving Networks und meint damit einen Ansatz, der über „Intent“ hinausgeht. Ein solches Netzwerk soll quasi autonom in der Lage sein, den Netzwerkverkehr selbst zu konfigurieren, zu überwachen, zu verwalten, zu korrigieren, zu verteidigen und zu analysieren, ohne dass menschliches Eingreifen erforderlich wäre. Maschinen treffen Entscheidungen auf der Grundlage von Algorithmen künstlicher Intelligenz, die sich mit der Zeit anpassen und intelligenter werden. Auch wenn es sich um eine Vision handelt, ist das Ziel doch klar erkennbar.

MW-KommRZ1.2018.ID04-Self-driving-Network.jpg
Juniper Networks steuert auf autonome Datacenter zu, die sich gegenüber einer vernetzten Industrie 4.0 vorausschauend selbst regulieren. (Bild: Juniper Networks)

Ausgangspunkt: nackte Notwendigkeit

Wie gesagt: Nur einige Beispiele. Aber sie zeigen die Komplexität. Und deshalb: Egal wie die individuelle Ausgangssituation ist, es besteht die Notwendigkeit einer Veränderung im Rechenzentrum. Konvergente bzw. hyperkonvergente Infrastrukturen (HCI), die Server, Storage, Netzwerk und Virtualisierung kombinieren und sich einfacher verwalten und skalieren lassen, können ein Ziel, eine Notwenigkeit sein. Hybride IT-Infrastrukturen sind das Paradigma. Sie umfassen allerdings nicht mehr „nur“ lokale Rechenzentren oder verschiedene Clouds. Vielmehr verlagern sich die Infrastrukturen. Hierdurch entsteht Komplexität. Gleiches gilt für die Daten: Erfassung. Verarbeitung. Speicherung. Und was ist mit den Themen, die sich anbahnen, etwa rings um KI und Quantencomputing? Und nochmals: Was ist mit den Klassikern, den Down-to-earth-Themen? Energieeffizienz? 50/100-GbE-Netzwerktechnologie? Oder, noch kleinteiliger, aber in der Breite absolut relevant: Stromversorgung und Datenredundanz? Den Druck zur Veränderung gibt es überall.

Was auch immer die individuelle Ausgangssituation ist: Datacenter-Betreiber, Verantwortliche in IT-Abteilungen oder Administratoren, egal ob in mittelständischen Unternehmen oder im Konzern – sie sollten sich die Frage stellen: „Wie werden, wie müssen wir in drei oder fünf Jahren unsere Leistung erbringen?“ Und egal wie die individuelle Antwort lautet: Es muss ein Weg weg von einem reaktiven hin zu einem proaktiven Ansatz gegangen werden, und zwar ohne Rücksicht auf die technologische Marketing-Sau, die gerade durchs Dorf getrieben wird. Das ist es. Das ist es, was Verantwortliche „in die Hand nehmen“ sollten: das Heft. Und zwar wider die Probleme mit Schatten-IT, Budgetrestriktionen und fehlenden personellen Ressourcen. Wider die Legacy-Systeme. Und wider die Fehlanreize durch obsessive Fixierung.

Axel Oppermann 2013.jpg

Axel Oppermann berät seit über 17 Jahren als IT-Markt­analyst Technologie­unternehmen in Strategie- und Marketing-Fragen. Er arbeitet beim Beratungs- und Analysten­haus Avispador, schreibt für diverse Blogs, Portale, Fach­zeitschriften und kommentiert in diversen Bewegt­bild­formaten aktuelle Themen sowie den Markt. Als Gesprächs­partner für Journalisten und Innovatoren bringt Axel erfrischend neue Ansichten über das Geschehen der digITal-Industrie in die Diskussion ein. Seine viel­fältigen Erkenntnisse gibt Axel in seinen kontroversen, aber immer humor­vollen Vorträgen, Seminaren, Work­shops und Trainings weiter. Seine Themen: Digital & darüber hinaus.

Nützliche Links