Hybrid-Cloud-Infrastruktur: Warum Hybrid Clouds ein­heit­liche Hard­ware brauchen

Am Ende zählen Kosten und Nutzen – egal, wie Unter­nehmen ihre IT-Infra­struktur gestalten. Wer mit seinen IT-Ressourcen eisern auf Effektivität und Nutzen aus ist, sollte sich schon beim Entwurf einer Hybrid-Architektur an klare Grund­sätze halten. Vor allem beim Um­gang mit dem Private-Cloud-Anteil.

Keine halben Sachen

Von Sebastian Mainzer, Palmer Hargreaves

Die Tendenz geht Richtung Zweigleisigkeit: 85 % der deutschen Mittelständler setzen den Marktanalysten der Teknowlogy Group (ehemals PAC) zufolge schon auf hybride Cloud-Betriebsmodelle. „Hybrid Cloud ist bereits der dominierende Modus Operandi im deutschen Mittelstand“, schreiben die Analysten in ihrem Fazit zur Studie. „Nur 13 % der Unternehmen nutzen derzeit gar keine Cloud-Lösungen.“ Aus der Kombination öffentlicher (public) und privater Cloud-Infrastrukturen ergibt sich jedoch in der Regel ein hochkomplexes Konstrukt, das unzählige Stolpersteine birgt.

Homogene Hard- und Software

Die derzeitige Entwicklung geht klar in die Richtung, sowohl on premises als auch in der Cloud praktisch identische Lösungen laufen zu lassen, damit die Komponenten optimal miteinander harmonieren. Dabei gerät mehr und mehr auch die Hardware in den Blick, den es leuchtet ein, dass eine einheitliche Hardwarebasis, sowohl im Public- als auch im Private-Cloud-Anteil, die sicherste Lösung ist. Das heißt: Auch der private Cloud-Anteil sollte mit derselben Hard- und Software funktionieren, wie sie im Public-Cloud-Rechenzentrum des Anbieters zum Einsatz kommt. „Wer etwa Anwendungen in der privaten Instanz entwickelt“, sagt Sascha Smets, Senior Produktmanager bei T-Systems, „kann sie dann auch problemlos in der öffentlichen Instanz betreiben, ohne groß testen oder zwingend Container einsetzen zu müssen.“ Ein weiterer Vorteil: Sogenannte Bursting-Szenarios sind leichter umzusetzen, wenn die zugrundeliegende Technologie homogen ausgelegt ist. Gemeint ist damit: Wer für bestimmte Prozesse kurzfristig extrem umfangreiche IT-Ressourcen benötigt, kann Lastspitzen jederzeit spontan durch Ressourcen aus der Public Cloud abdecken – ohne langwierigen Konfigurationsaufwand. Cloudbursting ist sozusagen eine Ventilfunktion für die lokalen Ressourcen: Wenn sie ans Limit kommen, werden Workloads automatisch in die – hoffentlich kompatible – Cloud verlagert.

Rechenzentren 2019-01.jpg

Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe „Rechen­zentren und Infra­struktur“. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Allerdings: Kaum jemand bietet genau die gleiche Hardware, wie sie auch im RZ des Public-Cloud-Providers zu finden ist. Das führt nicht selten zu Kompatibilitätsproblemen, zum Beispiel auf der Netzwerkebene. Provider, die tatsächlich eineiige Zwillinge ihrer Public-Cloud-Hardware für den Betrieb der Private Cloud vor Ort anbieten können, gibt es aber (noch) nicht allzu viele.

Qualifizierte Betriebsmannschaft

Cloud-Anbieter verdienen ihr Geld in der Regel mit standardisierter Masse: Skalierbare Cloud-Ressourcen lohnen sich umso mehr, wenn sie sich zentral managen lassen. Sonderlocken werden da aus Anbietersicht schnell zum Störfaktor. Individueller Service gehört daher meist nicht zu den Stärken eines Cloud-Providers. Erst recht, wenn es um private Cloud-Instanzen geht: Insbesondere US-amerikanische Hyperscaler überlassen Aufbau, Betrieb, Wartung und Service einer Private-Cloud-Instanz in der Regel zertifizierten Partnern. Diese ermitteln dann passende Hardwarekomponenten, die sich mit der Public Cloud des jeweiligen Anbieters vertragen. Ein komplexes Unterfangen ohne Erfolgsgarantie, das gleich mehrere Gewerke und Vertragspartner erfordert – und die Fehlersuche im Falle eines Falles erschwert.

Sicherer fahren Unternehmen mit einem Provider, der ihnen für den Aufbau und das Management der hybriden Cloud-Infrastruktur – speziell für den Anteil on premises – eigene Experten zur Verfügung stellt. Der also als Generalunternehmer die Gesamtverantwortung aller Gewerke vom Aufbau über den Betrieb bis hin zu Wartung und Service übernimmt. In Deutschland handhabt das zum Beispiel die Telekom mit ihrer Open Telekom Cloud Hybrid Solution so. „Wir sind derzeit der einzige Anbieter am Markt, der ein derartiges Managed-Hybrid-Cloud-Modell auf Basis von OpenStack zur Verfügung stellt“, sagt Frank Strecker, der für das Cloud-Geschäft verantwortlich ist.

Open-telekom-cloud-hybrid-solution-infografik-de-01.jpg
Die Open Telekom Cloud gibt es seit 2018 auch mit gleicher Hard- und Software als Hybrid-Lösung. (Bild: Deutsche Telekom)

Private Cloud ohne Public-Kontakt

Der Reiz einer hybriden Cloud-Infrastruktur liegt für die meisten Unternehmen in der Kombination zweier Betriebsmodelle, die das Beste aus beiden Welten herausholt: auf der einen Seite spontan skalierbare IT-Ressourcen, auf der anderen Seite geringstmögliche Latenz und größtmögliche IT-Security und optimalen Datenschutz. Nur können – oder müssen – einige Firmen aus Compliance-Gründen bestimmte Workloads in einer privaten Umgebung betreiben, die keine direkte Verbindung in eine öffentlich genutzte Infrastruktur hat. Das ist eine Herausforderung für Cloud-Architekten, denn viele Provider lassen keine private Instanz mit ihrer proprietären Software-Architektur zu, die nicht in irgendeiner Weise mit ihren Systemen verbunden ist. Das wiederum widerspricht in manchen Unternehmen jedoch den Compliance-Vorschriften, wenn es um die Verarbeitung sensibler Daten geht. „Im Gesundheitsbereich gibt es beispielsweise Unternehmen, die bestimmte Workloads ausschließlich in privaten Clouds betreiben müssen, ohne irgendeine Verbindung zur geteilten Infrastruktur“, betont Sascha Smets.

Serie: DSGVO-konformes Cloud Computing
Teil 1 beginnt dort, wo der Daten­schutz am wichtigsten ist: bei den Auftrags­daten­verarbeitern für Kommunen. Dabei geht es auch gleich um die zentralen Vorgaben der Privacy Compliance. Teil 2 nimmt sich dann den deutschen Norden und Osten vor, um zu prüfen, welche Rechen­zentren sich dort anbieten. Teil 3 berichtet mitten aus dem Digitalisierungskessel an Rhein und Ruhr, Teil 4 sichtet die Lage im deutschen Südwesten, bevor Teil 5 sich in Bayern umsieht. Auch ein Seitenblick nach Österreich und eine Übersicht über die dortigen Cloud-Anbieter sind bereits online, ebenso eine Vorschau auf das Projekt Gaia-X, das namentlich für den Mittelstand interessant sein könnte. Zur Frage der Datenhoheit könnten Zertifizierungen und nicht zuletzt Open Source gute Cloud-Antworten geben. Ein Extra-Beitrag widmet sich außerdem den Fragen der App-Portabilität.

Noch ein weiterer Punkt verdient Beachtung: Viele Unternehmen greifen aus Gründen der Kostenkontrolle zu Cloud-Services. Sie wollen nicht in – spekulativ dimensionierte – eigene Hardware investieren, sondern stattdessen Betriebskosten flexibel abrechnen. Mieten statt kaufen, heißt daher der Trend. Private Clouds passen hier eigentlich nicht ins Bild. Denn der private Teil einer hybriden Cloud wird nicht selten von Unternehmen gekauft. Damit vergeben Firmen jedoch monetäres Potenzial. Sascha Smets: „Wer die Hardware der privaten Bestandteile seiner Hybrid Cloud käuflich erwirbt, führt das Bedarfsprinzip ad absurdum.“ Um Investitionskosten (CAPEX) in Betriebskosten (OPEX) zu wandeln, wäre es vernünftiger, wenn man beim Aufbau einer Hybrid-Cloud sämtliche Bestandteile der Infrastruktur mieten könnte – nicht nur die virtuellen.

Nützliche Links