Cloud-Migration: Wer entscheidet, welche Work­loads in die Cloud wandern

Gemischte IT-Umgebungen aus eigenen Servern und (eben­falls ge­mischten) Cloud-Diensten sind der­zeit das Mittel der Wahl. Damit aber können die Hyper­scaler nur halb zu­frieden sein. An­wender sollten bedenken: Work­loads, die sich in die Cloud ver­schieben lassen, wollen irgend­wann auch dort landen.

Das dicke Ende der Portabilität

Von Axel Oppermann

Beginnen wir direkt mit dem Wichtigsten. Beginnen wir mit einer grundlegenden Wahrheit: Viele IT-Verantwortliche und Unternehmenslenker in Deutschland sind, bezogen auf die Themen digitale Transformation und die damit einhergehende Transformation der Informationstechnologie, auf dem Holzweg. Es ist klar ersichtlich: Auch bei Cloud Computing, auch bei dem, was unter digitaler Transformation verstanden wird, liegen die meisten Fehler zwischen Bildschirm und Rückenlehne.

Ad-hoc-Aktionismus

Die Lenker, Denker, die Manager, Chief-irgendwas-Executives, die zu CIOs emporgestiegenen Kellerkinder der frühen Jahre der Digitalisierung, der Zeit, als man noch „elektronische Datenverarbeitung“ sagte, haben sich jahrelang wie die Jungfrau vorm ersten Mal davor gescheut, ihre Workloads in die Cloud zu verlagern, die Rechenzentrumstechnologie zu modernisieren oder die Automatisierung von IT-Prozessen und eine Transformation der Unternehmensdynamik, der Geschäftsprozesse und Geschäftsmodelle aktiv zu forcieren. Jetzt wird irgendwie alles und jedes digitalisiert und cloudifiziert.

Rechenzentren 2019-01.jpg

Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe „Rechen­zentren und Infra­struktur“. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Gerade beim Thema Digitalisierung herrscht vielerorts purer Aktionismus. Von Strategie keine Spur. Nicht in der IT. Nicht im Business. In Ad-hoc-Initiativen wird vermuteten Bedrohungen reaktiv begegnet. Proaktiv werden Projekte für modernes Arbeiten (oder so) im Kontext von Robotic Process Automation (wahre Insider arbeiten nur mit dem Akronym RPA) aufgesetzt. Und natürlich alles mit reichlich KI versehen; versteht sich doch, selbstredend. Oft geschieht dies auch nur, weil es im Trend ist. Es ist en vogue. In gesellschaftlichen, geschäftlichen oder unternehmerischen Fortschritt wird eher nicht optimiert.

Im magischen Dreieck

Wie gesagt: Die Rede ist von vielen, nicht von allen Unternehmen. Und auch nicht von allen IT-Verantwortlichen, nicht von allen Business-Verantwortlichen. Es gibt sie, die anderen. Die, die nicht Teil des Problems sind, sondern Teil der Lösung. Die, die durch die geistige Rettungsgasse derjenigen gehen, die saturiert von den Leistungen anderer um ihren Status bangen. Es gibt Leute, die ruhig als das, was sie sind, nämlich Fachleute, ihre Arbeit machen.

Um das Geschäft wirklich zu transformieren und neue Möglichkeiten im digitalen Zeitalter zu erschließen, setzen diese Experten, greifen diese Unternehmen auf hybride Cloud, Cloud Governance sowie Container-Orchestrierung und Multicloud-Edge-Management-Tools zurück, um konsistentere, standardisierte und verfügbarere automatisierte Cloud-Ressourcen bereitzustellen. Natürlich stellt das effektive Management von Multicloud- und Hybrid-IT viele IT-Verantwortliche vor neue Herausforderungen. Die Komplexität steigt. Solange nur die Komplexität steigt und es nicht kompliziert wird, die Ziele zu erreichen und das Tagesgeschäft zu organisieren, ist das kein Problem. Aber bis dahin ist es ein weiter Weg. Menschen müssen sich verändern. Müssen Prozesse verändern. Müssen die IT verändern.

MW-KommRZ1.2019.ID07-Hybridusecaseschapter1.jpg
Das Redbook „IBM Private, Public, and Hybrid Cloud Storage Solutions“ zeichnet die Use Cases hybrider Clouds: Anwendungen und Daten können zur Optimierung der Workloads frei zwischen privater und öffentlicher Cloud verschoben werden. Die Crux liegt im Begriff „Independent Workloads“. (Bild: IBM)

Wenn sich in den Unternehmen etwas ändern soll, wenn in Bezug auf Wettbewerbs- und Zukunftsfähigkeit gehandelt werden soll, ist es unerlässlich, dass Unternehmen ihre Abhängigkeit von veralteten IT-Produkten, -Prozessen und -Systemen reduzieren. Diese Veränderungen finden in drei zentralen Bereichen statt. Dies sind namentlich die Modernisierung der Rechenzentrumstechnologie, die Automatisierung von IT-Prozessen und eine Transformation der Unternehmensdynamik. Diese Bereiche bedingen sich gegenseitig. Sie stehen allerdings auch in einer Zielkonkurrenz bzw. Abhängigkeit zueinander. Was bedeutet das? Ein gleichzeitiges Erreichen aller drei Ziele ist im Unternehmensalltag nur schwer möglich, da einerseits die Fähigkeit, die notwendigen Schritte und Veränderungen durchzuführen, unterschiedlich stark in den Unternehmen ausgeprägt, das heißt vorhanden sind. Und weil andererseits Veränderungen in einem Bereich nur möglich sind, wenn es in einem anderen Bereich die entsprechenden Grundlagen gibt.

In der Praxis wird hier sehr gerne von einem individuellen „Reifegrad“ des Unternehmens gesprochen. In einem sogenannten Reifemodell wird ermittelt, wo das Unternehmen technologisch, prozessual oder organisatorisch im jeweiligen Bereich bzw. Anforderungsfeld steht und welche die nächsten Schritte sind.

IT-Transformation durch die Cloud

Die Idee, Technologie nicht nur zu nutzen, um Services, Leistungen oder Produkte neu zu kreieren oder einen bestehenden Dienst in digitaler Form zu replizieren, sondern auch, um diesen Dienst in etwas Besseres zu verwandeln, ist der eigentliche Kern der digitalen Transformation.

In einer IT-Transformation, also einer nachhaltigen permanenten Modernisierung der zugrundeliegenden technischen Infrastruktur, liegt ein Wettbewerbsvorteil. Dieser Vorteil wird erzielt, indem man die Abhängigkeit von starren, manuellen und schwer zu verwaltenden IT-Systemen bzw. Legacy-Technologien ablegt. Die IT-Transformation sorgt für Geschwindigkeit, Effizienz, Skalierbarkeit und Wirtschaftlichkeit, indem manuelle Aufgaben in der IT automatisiert und geschäftliche Abläufe gleichfalls automatisiert und optimiert werden. Im Ergebnis wird die digitale Transformationsinitiative erst ermöglicht.

MW-KommRZ1.2019.ID07-redp4873.jpg
Software-defined Infrastructure zielt vor allem auf zunehmende Anwendungen aus den Bereichen Big Data, Analytics, Social Business und Mobile. SDI koordiniert automatisch und in Echtzeit die Ressourcen (Compute, Storage, Netzwerke und Management) je nach Workload. Jüngsten IDC-Zahlen zufolge nutzen bzw. evaluieren bereits 61 % der Unternehmen in Europa SDI. (Bild: IBM)

Neben Edge Computing, Security, einer geeigneten Vernetzung und noch einigen anderen Elementen ist Cloud Computing die Grundlage einer solchen IT-Transformation. Die Hindernisse vor der Einführung von Cloud Computing in Unternehmen, einschließlich Sicherheitsbedenken und Einhaltung gesetzlicher Vorschriften, werden immer geringer. Mit zunehmender Reife neuer Cloud-Funktionen, zum Beispiel der Unterstützung von Containern und Serverless Computing, werden Cloud-, Multicloud- oder Hybrid-Cloud-Umgebungen zu Plattformen der Wahl. Die Auswahl an geeigneten Anbietern und Dienstleistern wächst weiter, trotz einer anhaltenden Konsolidierung im Serviceumfeld und einer zunehmend oligopolistischen Marktstruktur bei den Hyperscalern, obwohl der Druck steigt, sich als Anwenderunternehmen den Marktzwängen hinzugeben wie eine Dirne.

So ist zu erkennen, dass einige Unternehmen, auch große Konzerne, (noch immer) auf einen einzigen Public-Cloud-Anbieter setzen. Aber andere sehen das (glücklicherweise) als mittel- bis langfristiges Risiko für das Management, die Ressourcenbeschaffung und die Aufrechterhaltung der Flexibilität und Eigenständigkeit als Unternehmen. So setzen sie stattdessen auf mehrere Cloud-Anbieter; Multicloud entwickelt sich zur immer beliebteren strategischen Ausrichtung. Unternehmen mit einer hybriden Kombination aus traditioneller IT und Multicloud wollen die Vorteile der Cloud-Agilität nutzen, haben aber (berechtigterweise) Angst vor einer Bindung an den Anbieter.

Vorsicht, Falle!

Die Cloud ist der Mao-Anzug der Digitalisierung. Ist die Zwangsjacke der IT-Industrie, in die Anwenderunternehmen gesteckt werden, um Austausch- und Abhängigkeitsverhältnisse zu erzeugen. Die Hybrid Cloud ist die Honigfalle, ist das Trojanische Pferd. Denn wir wissen doch alle: Identische Cloud- und lokale Stacks sind die Grundlage absoluter Workload-Portabilität. Und früher oder später kommen die großen Anbieter und rechnen vor, dass sich die jetzt so gelobten hybriden Modelle nicht mehr lohnen. Das wird so in fünf Jahren, vielleicht schon in drei Jahren der Fall sein. Die rote Linie, wo und wie Workloads ausgeführt werden, wird schon bald wieder nachgezogen.

Gehen wir nochmals kurz auf die hybride Cloud ein: Eine hybride Cloud liegt vor, wenn Unternehmen einige ihrer Workloads in ihren eigenen Rechenzentren betreiben, eine Public Cloud für andere verwenden und alles so konzipiert ist, dass sie reibungslos miteinander arbeiten. Um den wachsenden Anforderungen an Rechenzentren gerecht zu werden und zusätzliche Vorteile wie Agilität, Skalierbarkeit und regelmäßig globale Reichweite zu bieten, verwandelt sich das traditionelle Rechenzentrum in ein hybrides Rechenzentrum. Und diese Entwicklung wird in den kommenden fünf Jahren nicht an Bedeutung verlieren. Mehr noch: Die Hybrid Cloud wird weiterhin in der Mehrzahl der Unternehmen eine sehr hohe Priorität haben. Warum? Weil sie den heutigen Geschäftsanforderungen entspricht und gleichzeitig der kleinste gemeinsame Nenner ist, um Anforderungen und Trends wie ML (Machine Learning) und KI/AI (künstliche Intelligenz/Artificial Intelligence) abzubilden.

Eine hybride Cloud kombiniert vorhandene Rechenzentrumsressourcen mit vorgefertigten IT-Infrastrukturressourcen wie Compute, Networking, Storage, Applikationen und Services, die Skalierungsfunktionen bieten, die in IaaS (Infrastructure as a Service) oder Public-Cloud-Angeboten zu finden sind. Anwender benötigen solche Installationen, sei es, um Bedenken hinsichtlich der Datenhoheit zu zerstreuen, oder, was oft viel wichtiger ist, um den Anforderungen an Latenz gerecht zu werden.

Azure Stack, Outposts und Google

Die großen Anbieter unterstützen diese Bedarfe. Sie haben es geschafft, aus einem nicht erkannten Bedürfnis der Anwender einen dringenden Bedarf zu generieren. Hybrid Cloud ist für die Unternehmens-IT heute das, was Klopapier für den Diarrhöpatienten ist: Wenn man es braucht, dann braucht man es dringend. Hybride Cloud-Lösungen werden gebraucht. Und werden angeboten.

Microsoft hat schon lange etwas im Medizinschrank. So bietet Microsoft neben Azure und Windows Server auch Azure Stack, eine Appliance, gedacht als On-premises-Version der Public Cloud Azure. Azure Stack ist oft am Edge im Einsatz, ist da ein probates Mittel. Auch AWS geht seit geraumer Zeit diesen Weg und bietet mit AWS Outposts eine konsistente Hybrid-Cloud-AWS-Infrastruktur vor Ort im eigenen Rechenzentrum. Outposts bietet native AWS-Dienste, Infrastruktur und Betriebsmodelle für praktisch jedes Rechenzentrum, jeden Colocation Space und jede On-prem-Umgebung. AWS Outposts sind Rechen- und Speicherracks, die aus Hardware und AWS-Software bestehen und so konzipiert sind, dass sie im RZ des Kunden für die Bereitstellung eingesetzt werden können. AWS liefert nicht nur Racks mit Hardware, die mit seinen Softwareservices bestückt sind, sondern sorgt auch für Installation und Wartung. Anwender können die gleichen APIs, die gleichen Tools und die gleiche Funktionalität in ihren lokalen und in ihren Cloud-Anwendungen verwenden. Einsatzszenarien sind bei Workloads zu sehen, die wegen geringer Latenzzeiten oder lokaler Datenverarbeitungsanforderungen „vor Ort“ bleiben müssen.

Der Wettbewerb um die Führung im Bereich Public Cloud Computing ist ein harter Dreierwettbewerb: AWS gegen Microsoft gegen Google. Bei Infrastructure as a Service (IaaS) und Platform as a Service (PaaS) nehmen Amazon Web Services, Microsoft Azure und die Google Cloud Platform (GCP) eindeutig eine führende Position unter den vielen Cloud-Companies ein. Und damit das so bleibt, ist ein Hybrid Offering notwendig. Wie gesagt: AWS und Microsoft haben das schon. Google zieht jetzt nach: mit der Cloud Services Platform (CSP). Aber dann doch nicht so ganz, wie es etwa Microsoft oder AWS machen.

Die Google Cloud Services Platform ist eine hybride Cloud-Software, die zum Modernisieren von Anwendungen entwickelt wurde und sowohl lokal als auch in der Cloud das Einrichten einheitlicher, automatisierter Prozesse ermöglicht. CSP ist ein softwarebasiertes Angebot, ist reine Softwareplattform, vergleichbar mit IBM Cloud Private (ICP). Der Fokus liegt auf der Google Kubernetes Engine (GKE), die es Unternehmen ermöglicht, ihre Anwendungen sowohl im eigenen Rechenzentrum als auch auf praktisch jeder Cloud-Plattform auszuführen, die Container unterstützt. Mit diesem offenen und starken Schritt wird Google die eigene Relevanz nachhaltig steigern können.

Die Sache mit den Workloads

Die Sache mit der hybriden Cloud – bzw. der Bedarf einer Multicloud-Strategie – sollte soweit klar sein. Wäre noch die Sache mit den Workloads: Das Verschieben von Workloads – und die Entscheidung, welche davon verschoben werden sollen – ist nicht einfach, und Fehler können teuer kommen. Die Frage: Welche Workloads gehen in die Cloud, welche bleiben im eigenen Rechenzentrum? Aber auch: Welche Workloads werden noch benötigt bzw. wie lange sind die Lebenszyklen der einzelne Workloads? Und davor muss die Frage beantwortet werden: Warum überhaupt in die (Public) Cloud?

Die Antworten: Einige Unternehmen setzen auf mehr Agilität und mehr Elastizität; einige wollen jedoch auch den Betrieb von eigenen Rechenzentren einstellen. Daraus ergeben sich die nächsten Fragen. Für die, die keine eigenen Rechenzentren mehr betreiben wollen, stellt sich die Frage nach Colocation-Anbietern. Für die, die auf Agilität etc. setzen, stellt sich die Frage: Welche Workloads profitieren davon, wären also in der Lage, die erhöhte Agilität und Elastizität, die die Cloud bietet, verbunden mit der Integration von Mehrwertdiensten, zu nutzen? Anwendungen, die aktiv verbessert, innovativ entwickelt und weiterentwickelt werden, profitieren wahrscheinlich. Anwendungen, die saisonal sind, und nichtproduktive Umgebungen, die auch nicht rund um die Uhr laufen müssen, sind gute Kandidaten. Die Herausforderung besteht darin, dass die Beantwortung dieser Frage ohne eine ganzheitliche Strategie schwierig sein kann.

Neben Agilität und Effizienz und neben dem Trend zur verstärkten Standardisierung und Automatisierung ist zu erkennen, dass im Jahr 2019 – wahrscheinlich sogar noch massiv bis zum Jahr 2022 – Unternehmen ihre IT-Infrastruktur verstärkt dezentral ausbauen. Dies wiederum hat weitere Auswirkungen auf die Beurteilung der Verteilung der Workloads.

Axel Oppermann 2013.jpg

Axel Oppermann berät seit über 17 Jahren als IT-Markt­analyst Technologie­unternehmen in Strategie- und Marketing-Fragen. Er arbeitet beim Beratungs- und Analysten­haus Avispador, schreibt für diverse Blogs, Portale, Fach­zeitschriften und kommentiert in diversen Bewegt­bild­formaten aktuelle Themen sowie den Markt. Als Gesprächs­partner für Journalisten und Innovatoren bringt Axel erfrischend neue Ansichten über das Geschehen der digITal-Industrie in die Diskussion ein. Seine viel­fältigen Erkenntnisse gibt Axel in seinen kontroversen, aber immer humor­vollen Vorträgen, Seminaren, Work­shops und Trainings weiter. Seine Themen: Digital & darüber hinaus.

Erst überlegen, dann investieren

Im Zeitalter der digitalen Transformation stehen große und kleine Unternehmen unter enormem Druck, sich schnell an Veränderungen anzupassen. Neue Geschäftsmodelle und Umsatzströme sollen her, darüber hinaus sollen außergewöhnliche Kundenerlebnisse kreiert und gleichzeitig die Betriebskosten reduziert werden. Da „die Cloud“ dabei helfen soll, diese Ziele zu erreichen, erhöhen Unternehmen ihre Investitionen in diese Technologien massiv. Doch Vorsicht und Verstand sind geboten.

Nützliche Links