High Density Computing: Warum Datacenter auf High Density Computing umsteigen

Es ver­geht kaum ein Monat, in dem nicht ein großes Rechen­zentrum an den Start geht oder aus­ge­baut wird. Doch vor allem in Bal­lungs­zentren steht schlicht nicht ge­nü­gend Fläche zur Ver­fü­gung. Für die Be­trei­ber heißt es also, den Be­trieb, sprich: die Platz- und Energie­nutzung ef­fi­zien­ter zu gestalten.

Mehr Effizienz auf weniger Raum

Von Oliver Harmel, NTT Europe

Als Treiber für das Datenwachstum gilt insbesondere die Digitalisierung, welche die Nachfrage nach Kapazitäten in Cloud-Rechenzentren kräftig erhöht. Der Trend zur Verlagerung von Kapazität von unternehmenseigenen Racks und Storage-Equipment in zentral gelegene Cloud-Rechenzentren zeigt sich weltweit, mit unterschiedlichem Tempo. Im Zuge dessen siedeln sich auch verstärkt internationale Cloud-Anbieter in Deutschland an, da hier ansässige Unternehmen aus Datenschutzüberlegungen die Daten im eigenen Land halten wollen. Der Cisco Global Cloud Index 2014–2019 geht sogar davon aus, dass im Jahr 2019 beinahe 90 % der Arbeitslast in cloudbasierten Rechenzentren verarbeitet wird. Den Analysten von Datacenter Dynamics Intelligence (DCDi) zufolge befeuern auch Forschung und Analytik den Trend, besonders Big Data und das Internet der Dinge (IoT).

Datenwachstum durch die Cloud

Das Borderstep Institut für Nachhaltigkeit und Innovation sieht derzeit drei Trends:

  1. Cloud-Rechenzentren werden mehr und mehr genutzt. Dies bestätigt auch die Einschätzung von Cisco, wonach das weltweite Wachstum der Data Center Workloads in Zukunft ausschließlich im Bereich der Cloud-Workloads liegen dürfte.
  2. Colocation-RZ, deren Anteil an der Gesamtfläche aller Rechenzentren bis zum Jahr 2020 ca. 40 % betragen dürfte, nehmen stark zu.
  3. Festzustellen ist aktuell ein deutlicher Anstieg der RZ-Kapazitäten von mittelständischen Unternehmen, unter anderem im Maschinenbau, der sich mit zunehmender Durchsetzung von Industrie-4.0-Technologien noch verstärken dürfte.
Rechenzentren 2018-01.jpg

Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazin­reihe „Rechen­zentren und Infra­struktur“. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Das kontinuierliche Datenwachstum zeigt sich vor allem an den Indikatoren Energieverbrauch und genutzte Fläche. DCDi zufolge hat der Energieverbrauch von RZ längst über 45 GW erreicht. Auch Borderstep sieht hier mit einem Anstieg des absoluten Energieverbrauchs von bis zu 60 % weltweit und 30 % in Deutschland innerhalb der nächsten zehn Jahre eine klar steigende Tendenz. Schon jetzt sei klar, dass durch die verstärkte IoT-Vernetzung, aber auch der Rechenzentren selbst und durch Interconnects der Stromverbrauch zunehmen wird.

Was die RZ-Fläche angeht, so folgen die Wachstumsraten in Deutschland und auf weltweiter Ebene einer ähnlichen Entwicklung. Laut Borderstep dürfte sie hierzulande im Zeitraum 2013 bis 2020 von 1,6 auf etwa 2,3 Millionen Quadratmeter (+ 43 %) ansteigen.

Die Lösung: Verdichtung

Ein Erfolg versprechender Ansatz, um die immanenten Herausforderungen zu meistern, ist der Betrieb dichterer Rechenzentren. Verdichtung bedeutet hier, dass die Rechenleistung in einem Rack bei gleichbleibender Größe signifikant angehoben wird. Hierfür muss jedoch auch mehr Energie bereitgestellt werden. Noch vor wenigen Jahren konnte jedes Rack in einem Rechenzentrum 2 bis 4 kW Leistung beziehen. Heute liegt der Wert bei 10 bis 30 kW oder darüber. DCDi definiert die Schwelle für High-Density-Racks bei einer Leistungsaufnahme von 10 kW pro Rack.

Dabei müssen Rechenzentren jedoch für Racks mit großer Dichte geeignet sein und die zusätzlich benötigte Leistung liefern können. Interessant ist, dass High Density Computing zwar den Stromverbrauch pro Rack erhöht, diesen jedoch für die identische Rechenlast eines Endanwenders erheblich senken kann.

Anzupassen ist in jedem Fall die Kühlleistung, da High-Density-Server mehr Hitze produzieren. Doch die Kühlkapazität ist aufgrund moderner Kühlkonzepte heute im Vergleich zu früheren Jahren wesentlich höher. Zur Verfügung stehen zum einen die Kalt- oder Warmgangeinhausung, zum anderen auch moderne Adiabatik-Chiller, welche mithilfe von Verdunstungskühlung die Wärme deutlich effizienter abtransportieren. Eine direkte oder indirekte Freikühlung gewährleistet bei entsprechenden baulichen und klimatischen Gegebenheiten hohe Energieeffizienz. Seltenere Ansätze greifen auf die konstant niedrige Temperatur von Grundwasser oder gar auf unterirdisch angelegte Becken zurück. Dort wird über den Winter Wasser unter den Schmelzpunkt abgekühlt und im Sommer zur Kühlung genutzt. Solche erneuerbaren Energiequellen verbessern die Effizienz und senken die Gesamtstromrechnung der Nutzer, stehen aber auch deswegen hoch im Kurs, weil sie umweltfreundlicher sind. Mehrheitlich dürften jedoch noch klassische Kompressorkühlanlagen zum Einsatz kommen.

Brandneu ist die Single-Rack- bzw. Rackreihenkühlung. Sie ist jedoch teuer und erfordert viel Flexibilität. Ein hohes Potenzial für Einsparungen liegt in jedem Fall in einem perfekten Management und einer flexiblen Anpassung der Infrastrukturkomponenten an die aktuellen Anforderungen bzw. unterschiedlichen Workloads. Die Nutzung falsch dimensionierter oder nicht skalierbarer Aggregate führt dagegen zu massiven Verlusten, selbst wenn die neueste Technologie zum Einsatz kommt.

Technologie und Umsetzung

Erst die technologischen Errungenschaften der letzten Jahre haben High Density Computing aus der Taufe gehoben. Dazu gehört erstens die kontinuierliche Weiterentwicklung der Server mit höherer Leistungsdichte. Mehrkernprozessorsysteme haben längst Einzug gehalten; traditionell randständige Funktionen wurden auf den CPU-Die verlagert. Ein zweites Element bilden hochskalierbare hyperkonvergente Plattformen. Mit ihnen verringert sich der Platz- und Energiebedarf, denn dank ihrer Flexibilität bedarf es keiner überdimensioniert großen Infrastrukturen mehr. Eine weitere Hardwarekomponente, die den Energiebedarf senkt und gleichzeitig für stabile oder sogar verbesserte Leistung sorgt, sind sogenannte Predictive Flash Storage Arrays. So lässt sich zudem die Anzahl der Festplatten und SSDs in Storage-Systemen verringern.

Durch die Entwicklung und Nutzung von Rack-Systemen mit voll integrierten Klimatisierungsmodulen kommen zwei Effekte zum Tragen: Erstens ist die Kühlung hochgradig effizient, und zweitens gestalten sich Erweiterungen bei künftigem Wachstum sehr einfach.

Ein letzter Punkt ist die Versorgung ganzer Racks oder Cages mit Gleichstrom, wodurch die Wandlung von Wechselstrom wiederum effizienter wird.

High Density Computing lässt sich auf drei Arten umsetzen. Eine Möglichkeit ist der Einsatz neuer Servermodelle, die dank verbesserter Prozessorleistung schlicht mehr Rechenleistung im gleichen Gehäuse generieren. „Mehr Prozessorleistung pro Watt“ über eine stetig steigende Core-Anzahl pro physikalischem Prozessor ist die evolutionäre Grundlage bei der Verdichtung der Rechenkapazität.

Eine zweite Variante bieten Blade-Server. Sie können nach und nach eingeschoben werden, um Rechenkapazität hinzuzufügen. Blade-Designs verfolgen das Konzept, Komponenten an der Peripherie oder außerhalb des eigentlichen Servers in eine einheitliche Infrastruktur einzubinden. Hierzu zählt die Integration von IP- und SAN-Netzwerken sowie der Stromversorgung in das Chassis eines Blade-Centers, sodass die einzelnen Blade-Server diese gemeinsam nutzen können.

Die dritte Option – oder die konsequente Fortsetzung des Blade-Gedankens – bezieht sich auf High-Density-Pods. Dabei handelt es sich in der Regel um eine oder mehrere Rack-Reihen, die eine Dichte pro Rack von durchschnittlich 4 kW oder darüber gewährleisten. High-Density-Pods verfügen über Kühl- und Stromanschlüsse, die in einer in sich geschlossenen modularen Bauweise integriert sind.

Die Akzeptanz steigt

Die Nachfrage nach High-Density-Racks zieht aktuell stark an – ein deutliches Anzeichen dafür, dass sich der Umstieg auf diese Technologie offensichtlich lohnt. So bestellen die Kunden eher 47/48U- bis 54U-Racks anstelle von 42U-Racks. Dennoch wird die Leistungsaufnahme von 20 kW oder mehr pro Rack nur selten überschritten. Der aktuelle Durchschnitt liegt derzeit eher bei 8 bis 10 kW, Spitzenwerte bei 27 kW pro Rack. Dies hängt jedoch stark von der Ausrichtung des Anwenders ab. So benötigt ein Cloud- oder Content-Provider normalerweise mehr Leistung als ein klassisches Großunternehmen. Sicherlich spielen in Deutschland auch die extrem hohen Stromkosten eine Rolle bei der wachsenden Akzeptanz von High Density.

Auch DCDi ermittelte in einer Befragung von Tausenden Führungskräften der Rechenzentrumsbranche, dass die Leistungsdichte pro Rack kontinuierlich zunimmt – ein deutliches Indiz für die Verbreitung von High Density Computing. Dies könnte auch die Lage in Ballungsräumen entspannen, wo adäquate Standorte aufgrund begrenzter Flächen sowie der damit einhergehenden hohen Grundstückskosten rar sind. Doch genau dort ist der Bedarf am größten. Kritische Faktoren sind die Verkehrsanbindung, ein überschaubarer bürokratischer Aufwand bei den Baugenehmigungen sowie gute Strom- und Netzanbindungen. Höhere Effizienz in bestehenden RZ ist daher unter Umständen eine lohnende Alternative. Zumindest wenn zusätzlicher Strom und Kühlung bereitgestellt werden können.

Last, but not least senkt weniger IT-Equipment pro Rack den operativen Handling-Aufwand. Denn das Rechenzentrum wird dank einer geringeren Anzahl an Racks und Kabeln überschaubarer und weniger komplex. Die Infrastrukturkosten sinken und die Zuverlässigkeit steigt.

Oliver-Harmel-NTT-Europe.jpg

Oliver Harmel ist gelernter Betriebswirt und seit 2018 Head of Sales Continental Europe bei NTT. NTT Europe ist ein führender IKT-Anbieter für die Bereiche Rechenzentrum, Cloud, Netzwerke, Sicherheits- und IT-Management.


NTT Europe Ltd, Frankfurt Office, Hanauer Landstraße 182, 60314 Frankfurt am Main, Tel.: 069-133868000, www.eu.ntt.com/de/

RZ-Leistung bedarfsbezogen steigern

Betreiber moderner Rechenzentren, die standardmäßig Racks mit hoher Energiedichte, wie zum Beispiel 20 kW pro Rack einsetzen, erfüllen in der Regel auch die entsprechenden Kühlanforderungen. Höhere Kosten müssen Nutzer daher kaum fürchten. Ein kommerzieller Vergleich zeigt dies schnell auf. Ein Bestandsrechenzentrum mit niedrigerer Energiedichte umzurüsten, bedarf jedoch einer genauen Prüfung der lokalen Gegebenheiten. Mit einem effektiven Design besonders der Kühlsysteme für High-Density-Racks lassen sich aber durchaus Kostenvorteile generieren. High Density Computing hilft Unternehmen, ihre Rechenzentrumsleistung bedarfsbezogen zu erhöhen. Sie nutzen die vorhandenen Flächen und die eingesetzte Energie effizienter. Ein Nebeneffekt ist eine höhere Zuverlässigkeit durch besseres RZ-Handling.

Wer erfahren möchte, inwieweit ein Rechenzentrum für High Density geeignet ist, sollte seinen Betreiber auf den Prüfstand stellen. Kann er 20-kW-Racks bereitstellen? Ermöglicht er es dem Kunden, mehrere dieser Racks gemeinsam zu verwenden? Das sollte Grundvoraussetzung sein. Weniger empfehlenswert hingegen wäre ein Modell, bei dem die Racks verteilt werden müssten und der Kunde die Kosten für die nicht genutzte Fläche trägt. Auch eine Umrüstung des Kühlsystems oder eine Extrakühlung für das Rack zieht entsprechende Kosten nach sich. Daher verspricht ein im Hinblick auf High Density Computing optimiertes Rechenzentrum den größten Nutzen.

Nützliche Links