Konvergente RZ-Systeme

Aus MittelstandsWiki
Wechseln zu: Navigation, Suche

Es läuft auf Flash-Speicher hinaus

© Pure Storage, Inc.

Von Güner Aksoy, Pure Storage

Eine konvergente Infrastruktur kombiniert Computer-, Netzwerk- und Speicherhardware in einer einzigen integrierten Architektur. Ziel ist es, die Bereitstellungszeit zu verkürzen, die IT-Kosten zu reduzieren und das Implementierungsrisiko zu senken. Diese technischen und finanziellen Vorteile sind Faktoren, die das Thema Konvergenz weiter befeuern. Gartner sieht darin das am schnellsten wachsende Segment im globalen Markt für integrierte Systeme, das im Jahr 2019 ein Volumen von fast 5 Milliarden US-Dollar erreichen wird.

Konvergente Infrastruktur im Aufwind

Der Trend zur konvergenten Infrastruktur hat die Bereitstellung von Computing-Ressourcen erheblich vereinfacht. Leider basieren die meisten konvergenten Infrastrukturlösungen aber immer noch auf sperrigen, komplexen und langsamen festplattenbasierten Speichersystemen. Diese können den Anforderungen eines modernen Rechenzentrums kaum noch gerecht werden. Eine ebenso moderne, konvergente Infrastruktur muss jedoch schlank sein, eine leichte Handhabung bieten und für niedrigere Betriebskosten sorgen. Daher werden sich IT-Abteilungen weniger auf den Kauf, die Integration und Verwaltung von Produkten von einzelnen Anbietern konzentrieren, sondern mehr darauf, wie sich Workloads unterstützen lassen, die Geschäfts- und Wettbewerbsvorteile bringen.

Die zunehmende Bedeutung der Cloud hat eine neue Generation der konvergenten Architektur hervorgebracht. Diese intelligenteren, kompakteren und weitaus effizienteren Infrastrukturlösungen verfügen über eine direkte Virtualisierungs- und Cloud-Integration. Sie ermöglichen die schnelle Verfügbarkeit von historischen Daten und Echtzeitdaten. Zu den Einsatzbereichen zählt etwa das Gesundheitswesen, wo durch schnelleren Zugang zu Patientenakten und Bildinformationen die Patientenversorgung verbessert werden kann.

Rechenzentren 2018-01.jpg
Schwarz auf weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe „Rechen­zentren und Infra­struktur“. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Unterwegs zu All-Flash-Speicher

Die entscheidenden Vorteile dieser neuen Generation konvergenter Infrastrukturlösungen sind:

  1. Bessere Geschäftsergebnisse: Studien zeigen, dass eine reduzierte Latenz in Anwendungen eine Korrelation mit der Zufriedenheit und dem Engagement der Benutzer hat. Sollen zufriedene Kunden mehr Waren und Dienstleistungen kaufen, gilt es, die Produktivität der Mitarbeiter zu steigern, für einen besseren Einblick in die Daten zu sorgen und die Latenz zu reduzieren.
  2. Cloud-orientierte Skalierbarkeit: Wenn anspruchsvolle Anwendungen ohne die richtige Architektur virtualisiert werden, steht das IT-Team vor Problemen. Mit geeigneten Tools, einschließlich leistungsfähiger Server mit Serviceprofilen, und Stateless Storage lässt sich festlegen, wie, wo und wann Workload-Instanzen implementiert werden sollen. Stateless-Technologien ermöglichen es Administratoren, MAC-, WWN- (World Wide Name), UUID- (Universal Unique Identification), Boot-Detail-, Firmware- und sogar BIOS-Einstellungen in der Software zu konfigurieren, auf einfachen Administrationsschnittstellen. Die Stateless-Architektur ermöglicht die derzeit agilste konvergente Infrastruktur.
  3. Vereinfachung des IT-Betriebs: Storage war bislang der Knackpunkt virtueller Infrastrukturen. Ein großer Teil der aktuellen Innovation konzentriert sich auf die Implementierung verschiedener Lösungen, um VDI, OLTP-Datenbanken, Big-Data-Analysen oder den Kern der VMware-Cloud zu optimieren. Die konvergente Infrastruktur soll dabei die Gesamtzahl der verwalteten Geräte verringern, die Administration vereinfachen und die Betriebskosten reduzieren. Darüber hinaus ist eine validierte und verifizierte Lösungsarchitektur sehr nützlich, um die Implementierung zu erleichtern und die Risiken bei der Transformation der Rechenzentren zu reduzieren.
  4. Dehnbare IT-Budgets: Die hohen Datenreduktionsraten und die geringe Größe von All-Flash-Speichersystemen in Kombination mit effizienten Servern führen zu erheblichen Einsparungen beim Platzbedarf und bei den Energiekosten. All dies sorgt für eine enorme Vereinfachung der Administration und eine verbesserte Wirtschaftlichkeit des Rechenzentrums. Darüber hinaus können Lösungen wie FlashStack von Pure Storage und Cisco einfach aktualisiert werden, sodass Kunden nur bei Bedarf genau die benötigte Speicher- und/oder Rechenkapazität hinzufügen können. Kunden können Komponenten kaufen, die den aktuellen Anforderungen entsprechen, ohne dass sie Jahre im Voraus investieren müssen, um hypothetisches zukünftiges Wachstum zu unterstützen.

Von daher ist die Entscheidung für eine konvergente Infrastruktur von strategischer Bedeutung. Die Realität ist jedoch: Rechenzentren sind in Bezug auf Platz und Komplexität gewachsen, aber nicht unbedingt hinsichtlich Skalierbarkeit oder Performance. Der Ausweg liegt in modernen Storage-Lösungen, die All-Flash-Speicher mit Online-Datenreduktion kombinieren, und leistungsstarken Private-Cloud-Plattformen.

Das richtige Cloud-Modell

Mit dem exponentiellen Wachstum des Datenvolumens ist das Datenmanagement zum strategischen und viel diskutierten Thema geworden – und es hat die Wahrnehmung der IT-Infrastruktur verändert: Was einst als Ware angesehen wurde, ist zu einer Plattform geworden, auf der Unternehmen Anwendungen entwickeln und Erkenntnisse aus geschäftskritischen Daten gewinnen.

In letzter Zeit hat sich eine Verschiebung hin zur Public Cloud bemerkbar gemacht. Viele Unternehmen haben einen Teil ihrer Infrastrukturressourcen bereits in die öffentliche Cloud verlagert, wenn auch ohne ein wirkliches Verständnis für die Kosten und die betrieblichen Auswirkungen. Langfristig kann die Public Cloud nämlich nicht die Kostensicherheit bieten, die CIOs benötigen. Die Vereinfachung bei der Administration wird durch komplexes Kostenmanagement nahezu aufgehoben. Einsparungen bei der Inhouse-Administration werden mittlerweile häufig durch Public-Cloud-Budgets aufgezehrt. Dies wird künftig häufiger auf den Prüfstand gestellt werden.

Die Public Cloud bietet nach wie vor in vielen Fällen kosteneffiziente Elastizität sowie attraktive Experimentier-, Archivierungs- und Disaster-Recovery-Funktionen. Für planbare, leistungskritische Workloads wird sich jedoch die Private Cloud durchsetzen, denn die Latenzzeiten in der öffentlichen Cloud sind höher, und Bandbreite ist teuer. Die meisten Rechenzentren werden auf eine Mischung aus Public Cloud (IaaS-/PaaS-Plattformen wie AWS und Azure) und Private Cloud – in Form einer Hybrid-Cloud – setzen, oder sie werden Multi-Cloud-Umgebungen nutzen. Multi-Cloud steht für die Verwendung mehrerer öffentlicher Cloud-Dienste, wobei die Anwendungen in der Regel unabhängig voneinander ausgeführt werden.

Eine moderne Datenplattform sollte nicht nur die Möglichkeit bieten, die Cloud-Operationen eines Kunden zu unterstützen, sondern mit der Public Cloud klarkommen. Kunden können dadurch Multi-Cloud-Architekturen für Anwendungsentwicklung, Bereitstellung, Datensicherung und Disaster Recovery nutzen. Bei der Integration mit der Public Cloud sollte dies eine native Integration sein, die den vollen Zugriff auf die PaaS-Services der öffentlichen Cloud ermöglicht und somit uneingeschränkte Multi-Cloud-Agilität gewährleistet.

NVMe revolutioniert die Datennutzung

Wichtige Innovationen im Storage-Markt werden maßgeblich dazu beitragen, die Modernisierung im eigenen Rechenzentrum voranzutreiben. Bestes Beispiel hierfür ist NVMe (NVM Express), ein modernes Speicherklassenprotokoll für die Kommunikation zwischen CPUs und Flash. Aktuelle Speichersysteme verwenden meistens das ältere SCSI- oder SAS-Protokoll, das einen Engpass darstellt und Leistungsverzögerungen bei der Kommunikation mit Flash verursacht. Das NVMe-Protokoll verspricht die Beseitigung des SCSI-Engpasses und ermöglicht massive Parallelität mit bis zu 64.000 Warteschlangen und Verbindungen, die jedem CPU-Kern dedizierten Warteschlangenzugriff auf jede SSD ermöglichen.

Flash-Speicher-Arrays mit internem NVMe bieten eine bessere Leistung, höhere Bandbreiten und niedrigere Latenzzeiten sowie eine höhere Dichte und Konsolidierung. All dies führt zu geringeren Kosten pro Workload. Von NVMe wird jedes Unternehmen profitieren, das seine Daten besser nutzen möchte. NVMe macht den Weg frei für technologische Fortschritte wie superdichte SSDs, moderne Mehrkern-CPUs, neue Speichertechnologien und Hochgeschwindigkeitsverbindungen.

Die Storage-Branche wird daher künftig die Verlagerung auf NVMe-Architekturen energischer vorantreiben. Analysten prognostizieren, dass NVMe, das die nächste Generation von Flash-Performance und -Dichte ermöglicht, bis 2019 zum führenden Schnittstellenprotokoll für Flash avancieret. Eine kritische Masse von Consumer-Geräten hat sich bereits auf NVMe verlagert, und Unternehmen werden nicht mehr hinterherhinken.

Güner Aksoy ist Regional Sales Director Central Europe bei der Pure Storage GmbH. Gemeinsam mit Cisco hat Pure Storage die integrierte Rechen-, Netzwerk- und Speicherlösung FlashStack entwickelt.


Pure Storage, Inc., Konrad-Zuse-Platz 8, 81829 München, Tel.: 089-120895072, dach@purestorage.com, www.purestorage.com

Vorteil durch eigene Infrastruktur

Den Anschluss verlieren will kein Unternehmen. Immer mehr haben erkannt, dass das auch im Rechenzentrum gilt – und sie werden ihre eigene Infrastruktur zunehmend als Wettbewerbsvorteil sehen. Die Differenzierung wird darin bestehen, ein leistungsfähiges Rechenzentrum zu betreiben, um Daten schneller zu analysieren, neue Erkenntnisse zu gewinnen und neue Produkte und Erfahrungen zu liefern. Eines ist sicher: Die Daten werden weiterhin mit einer noch nie dagewesenen Geschwindigkeit wachsen. Und: Konvergenz, Datenmanagement und die Cloud werden in nächster Zeit bei großen Unternehmen weiterhin die strategische IT-Planung dominieren.

Nützliche Links