Cloud Data Management

Aus MittelstandsWiki
Wechseln zu: Navigation, Suche

Vom RZ in die Cloud und zurück

© Rubrik

Von Roland Stritt, Rubrik Inc.

Viele Unternehmen aus verschiedenen Branchen begeben sich derzeit auf die Reise in die Cloud. Bis 2020 werden 83 % der Unternehmen die Public Cloud nutzen, so eine aktuelle Studie von LogicMonitor, und zwar in den meisten Fällen als Hybrid Cloud. Der Begriff Hybrid Cloud beschreibt eine IT-Welt, in der sich Daten in der Public Cloud, on premises oder irgendwo dazwischen befinden können. Das Ziel besteht darin, die Vorteile der neuesten Software und Entwicklungsmethoden in Cloud-Umgebungen zu nutzen, ohne auf ein eigenes Rechenzentrum vor Ort zu verzichten.

Hinzu kommt, dass ein einziger Cloud-Service in den seltensten Fällen den geschäftlichen Anforderungen genügt. Die Folge sind hybride Multiclouds, also Kombinationen aus Ressourcen vor Ort und diversen Cloud-Diensten. Diese Entwicklung lässt sich derzeit branchenübergreifend beobachten. Beispiel Storage: Daten werden weiterhin über einen langen Zeitraum aufbewahrt, aber nicht mehr nur auf Speicher-Arrays oder auf Band, sondern auch bei AWS und anderen Cloud-Anbietern.

Je nach den spezifischen Anforderungen einzelner Workloads steigen damit auch die Anforderungen an die Datenmobilität. Der schnelle und einfache Zugriff auf Daten in diesen Hybrid- und Multicloud-Umgebungen ist nicht von Haus aus gegeben. Unternehmen stehen vor der Herausforderung, beispielsweise Daten aus dem Rechenzentrum als Backup in die Cloud zu verschieben, dort eventuell von AWS auf Azure zu transferieren und im Fall der Fälle das Backup als Instant Recovery aus der Cloud wieder schnell ins Rechenzentrum zu holen. Klassische Backup-Ansätze sehen hierbei alt aus. Ein relativ neuer Ansatz firmiert unter dem Kürzel CDM – Cloud Data Management.

CDM-Appliances im Cluster

Eine Cloud-Data-Management-Plattform bietet eine zentrale Oberfläche für die Verwaltung und die Sicherung von Daten in der Cloud, am Netzwerk-Edge und on premises, also im klassischen Rechenzentrum vor Ort. Unternehmen entscheiden sich für den CDM-Ansatz, um Backups und Wiederherstellungen zu vereinfachen, die Cloud-Einführung zu beschleunigen und eine Automatisierung in größerem Umfang zu ermöglichen. Eine entsprechende Architektur nach dem Prinzip „run anywhere, scale out“ kann IT-Abteilungen dabei unterstützen, die Gesamtbetriebskosten zu reduzieren und die flexiblen Infrastrukturen von Hybrid- und Multicloud-Umgebungen auch effizient und flexibel zu nutzen.

MW-KommRZ4.2018.ID04-Data-Sheet-Rubrik-Andes-5.0-Overview.jpg Mitte November 2018 hat Rubrik das Release Andes 5.0 auf den Markt gebracht. Die CDM-Plattform kümmert sich jetzt auch um geschäftskritische Cloud-Anwendungen und -Datenbanken. (Bild: Rubrik)

CDM vereint Backup, Storage, Replikation, Recovery und Datenmanagement auf einer einzigen Plattform. Als Hardware wird eine Appliance in die vorhandene physische IT-Infrastruktur integriert. Diese enthält unter anderem eigene CPUs, Festplatten, Netzwerkverbindungen, Flash-Speicher und die CDM-Software. Durch Hinzufügen weiterer Appliances lassen sich Performance und Kapazität der gesamten Architektur linear skalieren. Das Cluster erkennt zusätzliche Appliances und veranlasst eine automatische Konfiguration. Die Integration und Erweiterung funktioniert insofern problemlos und rasch. Neben einer physischen Appliance lässt sich eine moderne CDM-Lösung auch als virtuelle Edge-Appliance oder als Cloud-Cluster einsetzen, sodass keinerlei topologische Beschränkungen mehr gegeben sind.

Anwendungsfälle der Data Fabric

Mit CDM rückt die Datenmanagement-Software näher an die Anwendungen und Daten. Sie übernimmt das Erfassen, Katalogisieren, Sichern und Starten von Anwendungen. Unternehmen erhalten dadurch eine automatisierte, Cloud-native Lösung, die flexibel skalierbar ist und sich gut anpassen lässt. Die Kombination dieses Ansatzes mit Tools wie ServiceNow, vRealize Suite, Puppet und anderen SaaS-Angeboten erleichtert die Automatisierung und Prozessoptimierung in der Entwicklung, etwa mittels DevOps.

Rechenzentren 2018-04.jpg
Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe „Rechen­zentren und Infra­struktur“. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Eine CDM-Lösung funktioniert in einer Vielzahl von Umgebungen. Grob lassen sich vier Anwendungsfälle unterscheiden:

  1. Im lokalen Rechenzentrum wird ein herkömmliches hardwarebasiertes Cluster verwendet, das optional mit einem Archivstandort in der Public Cloud kommunizieren kann.
  2. In angebundenen Zweigniederlassungen wird eine einzelne CDM-Instanz als virtuelle Appliance auf einem VMware ESXi-Host betrieben.
  3. Im Falle einer Hybrid-Cloud-Umgebung wird eine archivierte Kopie des Vor-Ort-Workloads herangezogen und nach Bedarf in der Public Cloud ausgeführt, ohne dass eine permanente CDM-Instanz in der Cloud erforderlich wäre.
  4. Für Cloud-native Workloads wiederum, die in AWS oder Azure laufen, wird ein vollwertiges CDM-Cluster in der Public Cloud betrieben. Daten können somit von einem zum anderen Standort repliziert werden.

Entscheidend ist, dass das CDM keine Inseln schafft, im Gegenteil: Die CDM-Plattform dient als Data Fabric, als eine Art „Datengewebe“, zur Verwaltung von Daten, unabhängig von deren Standort. Somit befreit Cloud Data Management die Daten von der zugrundeliegenden Infrastruktur. Die Daten können von einem Ort zum anderen oder – im Falle einer Multicloud-Umgebung – zwischen verschiedenen öffentlichen und privaten Clouds verschoben werden. Weil mit Blick auf Skalierbarkeit und Integration wichtig ist, dass alle CDM-Funktionen auf eine problemlose Interaktion ausgerichtet sind, hat sich gezeigt, dass eine Lösung sinnvoll ist, die auf einer RESTful-API basiert, mit verschiedenen Workflow-Erweiterungen wie etwa für PowerShell oder VMware vRealize Orchestrator.

Faustregeln für die Umsetzung

Für eine erfolgreiche CDM-Umsetzung zur Datenmobilität sind einige konzeptionelle Überlegungen zu berücksichtigen. Im Wesentlichen geht es um die folgenden vier Punkte:

Als Erstes brauchen wir ein deklaratives Framework für das Datenmanagement. Denn Hybridität erzeugt zwei Phänomene: die Fragmentierung von Anwendungen, da sich die Komponenten nun vor Ort oder in der Cloud befinden können, und gleichzeitiges Datenwachstum an mehreren Orten. Der einzige Weg, diese Herausforderungen in den Griff zu bekommen, besteht darin, Daten ganzheitlich, plattform- und standortunabhängig über deklarative, richtliniengesteuerte Frameworks zu verwalten. Genau darum geht es ja beim Cloud Data Management: die Konsistenz und unternehmensweite Kontrolle über alle Plattformen und Standorte zu gewährleisten, unabhängig vom Datensatztyp im Vordergrund. Ziel ist es, von vornherein die Logik der Datenverwaltung zu diktieren, anstatt sich manuell durchzukämpfen und bedarfsweise verschiedene Tools zu integrieren.

Das zweite wichtige Stichwort ist Konsistenz, und die ist am besten durch Automatisierung zu durchzusetzen. Bei der Skalierung einer Infrastruktur ist Konsistenz von größter Bedeutung. Skalierung bringt aber mehr mit sich als nur zusätzliche Arbeitslasten, sie erhöht die Komplexität. Ein Hybrid-Cloud-Modell kann schnell zum Chaos führen, wenn die Architektur nicht genuin für diesen Ansatz entworfen wurde. Im Gegensatz zu Menschen führen Computer Aufgaben jedes Mal auf die gleiche Weise aus. Automatisierung erleichtert es der IT-Abteilung, Standardmethoden und -verfahren zu etablieren, und reduziert so den Verwaltungsaufwand. Durch die Nutzung von APIs können Automatisierungswerkzeuge sogar in externe, geschäftsorientierte SLA-basierte Systeme integriert werden.

Drittens ist ein am Geschäft orientiertes Design für Datenmobilität und Agilität erforderlich. Die Verwaltung von Daten auf Unternehmensebene ist nämlich keine leichte Aufgabe. Dies gilt unabhängig davon, ob die Daten vor Ort, in der Cloud oder an beiden Orten vorgehalten werden. Daten wandern in die Public Cloud und aus der Public Cloud heraus, auf dem Weg zu einem lokalen Rechenzentrum oder einer anderen Public Cloud. Wenn Unternehmen eine hybride, öffentliche oder lokale Umgebung von Grund auf entwerfen, sollten sie sorgfältig planen, wo die Datenverarbeitung stattfinden soll (im Gegensatz zur ersten Datenablage, dem Staging oder der langfristigen Archivierung). Ein erfolgreiches Design ermöglicht es, dass Daten problemlos von einem Standort zum anderen migriert werden können. Eine einheitliche Softwarestruktur mit robusten APIs und Datenintegrationstoolsets ist hier hilfreich.

Der vierte Punkt betrifft die zuverlässige Sicherung und Wiederherstellung. Cyberangriffe werden von Tag zu Tag ausgefeilter und intelligenter, ebenso wie die Tools für Sicherung und Wiederherstellung. Hybridität vergrößert die Angriffsfläche. Eine CDM-Plattform ist deshalb speziell darauf ausgelegt, Daten schnell wieder online zu bringen, ohne dass eine Rehydratisierung der Workloads erforderlich ist. Dadurch lässt sich die angestrebte RTO (Recovery Time Objective), also die Wiederherstellungszeit senken, was natürlich gut fürs Geschäft ist. Darüber hinaus ist ein herkömmliches Backup- und Wiederherstellungstool in der Regel „Metadaten-arm“. Da die Nutzung der Public Cloud zunimmt, sollte die Datenmanagementlösung auf Metadaten über viele Plattformen und Anwendungen hinweg zugreifen, diese analysieren und diagnostizieren können. Diese Einblicke bieten einen Mehrwert zusätzlich zu den grundlegenden Datenmanagement-Tools.

Automatisiertes Cloud Data Management

Diese vier Maßnahmen sind hilfreich, um eine Cloud-Data-Management-Strategie umzusetzen, die eine optimale Nutzung von Daten und Metadaten unterstützt und daraus den maximalen Wert zieht. Dann stehen Datenmanagementfunktionen zur Verfügung, die Cloud-Betreiber selbst eben nicht bereitstellen: Unabhängig davon, wo sich die Daten befinden, können sie richtliniengesteuert mit einem ganzheitlichen Ansatz verwaltet werden. Alle zentralen Aufgaben werden automatisiert, um Konsistenz zu gewährleisten. Workloads werden damit fit gemacht für die Datenmobilität, und der Schutz der Daten bleibt jederzeit gewährleistet.

Letztlich wird der Umgang mit den eigenen Daten damit so einfach und transparent wie in einer kontrollierten On-premises-Umgebung. Ist eine uneingeschränkte Datenmobilität gewährleistet, werden die Daten auch für moderne Anwendungsfälle wie Analytik und DevOps leichter zugänglich. Unternehmen gewinnen dadurch an der vielfach geforderten Agilität, um sich im globalen Wettbewerbsumfeld behaupten zu können.

Roland-Stritt-Rubrik.jpg

Roland Stritt ist Director Channels EMEA bei Rubrik Inc. Das Unternehmen ist spezialisiert auf Lösungen für Cloud Data Management, mit denen Unternehmen die Sicherung, Verwaltung und den Schutz ihrer Daten beschleunigen können, unabhängig vom Standort.


Rubrik Switzerland GmbH, c/o BDO AG, Schiffbaustrasse 2, CH-8005 Zürich, Tel.: +31 (0)20811-3222, sales-emea@rubrik.com, www.rubrik.com/de/

Nützliche Links