Nachhaltigkeit im Rechenzentrum

Aus MittelstandsWiki
Wechseln zu: Navigation, Suche

Taten statt Zahlen

© SpaceNet AG

Von Peter Marwan

Der Energiebedarf von Rechenzentren nahm in den vergangenen Jahren mit steigenden Wachstumsraten immer schneller zu. 2017 benötigten Rechenzentren in Deutschland so viel Strom wie die gesamte Stadt Berlin (13,2 Milliarden kWh). Nach Angaben des Borderstep Instituts hat sich der Energiebedarf der Rechenzentren in Deutschland zwischen 2010 und 2017 um 25 % erhöht.

Den Anstieg führen die Experten vor allem auf die zahlenmäßige Zunahme der IT-Komponenten in den Rechenzentren und auf deren Leistung zurück. So wurden 2017 in Deutschland rund 2,37 Millionen Server betrieben – 18 % mehr als 2010. Hinzu kommt eine deutliche Zunahme bei Hardware für Datenspeicherung und Netzwerktechnik. Der Stromverbrauch der IT-Komponenten in den Rechenzentren summierte sich somit auf 7,9 Milliarden kWh im Jahr 2017, im Jahr darauf waren es bereits 14 Milliarden kWh.

Anzeige
© Heise Events

Diskussion um den PUE-Wert

Das Verhältnis des Jahresenergiebedarfs eines Rechenzentrums zum Jahresenergiebedarf der betriebenen IT wird als PUE-Wert erfasst (Power Usage Effectiveness). Vor ein paar Jahren lagen die Werte neu errichteter Rechenzentren noch zwischen 1,6 und 1,8; heute werden schon Werte unter 1,3 erreicht. Das deutet auf eine erhebliche Verbesserung hin. Die ist grundsätzlich auch gegeben, im Einzelfall lohnt es sich aber, genau hinzuschauen. Denn der PUE-Wert ist zwar eine wichtige Kennzahl der Energieeffizienz, allerdings ist zunehmend umstritten, welche Aussagekraft er hat, und die Messmethoden und Rahmenbedingungen rücken stärker in den Fokus.

RZ 2-2019.jpg
Schwarz auf Weiß
Dieser Beitrag ist zuerst in unserer Magazin­reihe „Rechen­zentren und Infra­struktur“ als Beilage zur iX erschienen. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

„Entscheidend ist, wie der PUE-Wert ermittelt wird. Angaben anhand von Modellen oder durch punktuelle ‚Schönwetter-Messungen‘ haben alleine keine große Aussagekraft“, betont etwa Michel Arres, Vice President Secure Power Division DACH beim RZ-Infrastrukturanbieter Schneider Electric. „Wirklich relevant wird der PUE-Wert erst, wenn er auf Grundlage von kontinuierlichen Messungen der Wirkleistung mit hoher Granularität über das ganze Jahr errechnet wird. Nur so können verschiedene Wetterlagen und Lastzustände über den Jahresverlauf hinweg korrekt berücksichtigt werden.“

Auch Manuel Mair, Solutions Architect für den Bereich Global Solutions bei Vertiv, ebenfalls Anbieter von Komponenten für die Rechenzentrumsinfrastruktur, empfiehlt umweltbewussten Kunden, vorsichtig zu sein. „Die Tendenz geht natürlich in die Richtung einer Annäherung der PUE-Werte von knapp über 1,0. Aber man muss immer betrachten, welcher PUE-Wert angegeben wird: Ist es nur ein Design-PUE-Wert, der auf Annahmen basiert, oder ist es ein gemessener Wert, der auf kWh über einen Zeitraum von zwölf Monaten basiert?“ Außerdem sollte Mair zufolge auch die jeweilige Auslastung betrachtet werden. Üblicherweise wird ein RZ für eine bestimmte Ziellast definiert, in der der optimale PUE-Wert erreicht wird. Das bedeute im Umkehrschluss, dass der PUE-Wert als einzige Kennzahl nicht wirklich aussagekräftig ist, sondern zusätzliche Informationen wie Standort und Auslastung notwendig sind.

121112-PUE-Messung.jpg
PUE-Leitfaden zum Download
2011 hat der Arbeitskreis AK Rechenzentrum & IT-Infrastruktur im Bitkom den Leitfaden „Wie messe ich den PUE richtig?“ publiziert, der sich auf die Recommendations for Measuring and Reporting Overall Data Center Efficiency bezieht. Er erklärt kurz und Bündig die Korrelation von Messung, Wert und Kategorie, außerdem gibt er Beispiele für RZ-Energieeffizienzmaßnahmen. (Bild: Bitkom)

Wie man den PUE-Wert korrekt ermittelt, hat der Bitkom bereits 2012 in einem Leitfaden festgehalten. Aber selbst wenn sich Rechenzentrumsbetreiber daran halten, macht das den Vergleich für Anwender nicht einfacher, denn demnach gibt es vier Kategorien von PUE-Werten. Sie unterscheiden sich unter anderem darin, wo der Energiebedarf gemessen wird – am Eingang (am Stromzähler), am Ausgang der USV, am Ausgang der PDU (Power Distribution Unit) oder am Eingang der Komponenten.

Keine Alternativen in Sicht

Selbst wenn alle diese Hürden erfolgreich genommen werden, bleibt der PUE-Wert angreifbar. Denn je höher die Leistungsaufnahme der IT-Komponenten ist, desto mehr darf auch deren Kühlung benötigen, ohne dass der PUE-Wert darunter leidet. Keine Auskunft gibt der PUE-Wert zudem darüber, wie effizient die IT-Komponenten mit Energie umgehen: Also wie viel Rechenoperationen sie mit einer Kilowattstunde vollbringen, wie viele Daten sie damit speichern oder wie viele Serverabfragen sie damit ermöglichen.

Die vergleichsweise neue europäische Norm DIN EN 50600 fasst bisher getrennte Regelungen und Normen zusammen. Sie definiert Standards für „Verfügbarkeit, Sicherheit und Energieeffizienz über die geplante Lebensdauer des Rechenzentrums“. Dazu regelt die Norm die bauliche Konstruktion von Rechenzentren sowie Aspekte der Sicherheit und des Managements. In Bezug auf die Energieeffizienz wird erstmals festgelegt, in welcher Detailtiefe sie gemessen werden soll.

Ob sich daraus ein ähnlich griffiger Wert wie der PUE-Wert ableiten lässt und ob der sich am Markt durchsetzen kann, ist unklar. Der bereits länger angebotene Blaue Engel für Rechenzentren dürfte trotz aktualisierter Vergabekriterien und eines hohen Anspruchs international kaum eine Chance haben, akzeptiert zu werden. Schon in Deutschland haben ihn derzeit lediglich vier Rechenzentren beantragt und erhalten ─ drei davon gehören der öffentlichen Hand, das vierte lebt hauptsächlich von deren Aufträgen.

Wo noch Luft nach oben ist

Auch abseits der Anstrengungen, bestimmte Vorgaben zu erreichen, bieten sich für Rechenzentrumsbetreiber Möglichkeiten, effizient und nachhaltig zu wirtschaften. Dabei hilft es, „Kühlung und Stromversorgung richtig zu dimensionieren und dann möglichst nahe am Optimum zu betreiben“, rät Michel Arres. Er plädiert für einen modularen Aufbau, sodass immer nur die Komponenten betrieben werden müssen, die auch genutzt werden. „IT-Hardware Komponenten werden immer weiter entwickelt, um zukünftig auch in höheren Temperaturumgebungen betrieben werden zu können“, berichtet Vertiv-Mitarbeiter Manuel Mair. Dadurch können Rechenzentren bei höheren Temperaturen betrieben werden und kommen häufiger mit einer Freikühlung aus – also der Kühlung lediglich durch die Außentemperatur.

Der naheliegende Gedanke, die warme Luft aus Rechenzentren nicht zu kühlen, sondern als Wärme zu nutzen, wurde bereits vor ein paar Jahren vorgeschlagen, aber wegen unzureichender technischer Rahmenbedingungen meist wieder verworfen. Diesbezüglich hat sich einiges geändert. Mair sieht in der Nutzung der Abwärme neben der Erhöhung der Systemtemperatur im Hinblick auf Nachhaltigkeit inzwischen sogar das größte Potenzial. Sein Unternehmen habe unterschiedliche Ansätze zur Nutzung der Abwärme bereits bei einigen Projekten im Einsatz und gute Erfahrungen damit gemacht. „Die entscheidende Größe ist das zur Verfügung stehend Temperaturniveau der nutzbaren Abwärme, bzw. welches Temperaturniveau für die jeweilige Anwendung benötigt wird“, fasst Mair zusammen. Arres merkt an: „Einer der Gründe, warum der Abwärmenutzung aus Rechenzentren bislang nicht der große Durchbruch gelungen ist, liegt in der relativ geringen Rücklauftemperatur des Kühlwassers. Diese beträgt meist weniger als 30 °C und kann nur mithilfe von Wasser- bzw. Wasser-Wärmepumpen auf ein nutzbares Niveau gebracht werden.“ Komponenten, die höhere Betriebstemperaturen ertragen, würden also auch hier Vorteile bringen.

Abwärmeprojekt in Braunschweig

Durch die EU-Initiative ReUseHeat wird derzeit auch die Abwärmenutzung aus Rechenzentren gefördert. Eines der vier Förderprojekte läuft in Braunschweig als Teil der Umwidmung des Geländes der ehemaligen Kaserne „Heinrich der Löwe“ in ein Vorzeigeareal für energieeffizientes Wohnen mit rund 100 Einfamilienhäusern, 32 Doppelhaushälften, 95 Reihenhäusern und etwa 350 Wohnungen.

Brunswick-data-center-BS-ENERGY.jpg Tausche Kälte gegen Wärme: Beim ReUseHeat-Demonstrator Braunschweig wird das RZ an das örtliche Fernwärmenetz der Veolia-Tochter BS|Energy angebunden. (Bild: BS|Energy – ReUseHeat)

Die Wärmeversorgung übernimmt der lokale Versorger BS|Energy mit dem Aufbau eines Nahwärmenetzes. In dieses wird mit einer Wärmepumpe auch die Abwärme aus dem Rechenzentrum eingespeist. Der wesentliche Vorteil ist, dass mit dem Nahwärmenetz bereits eine alternative Heizquelle zur Verfügung steht. Der RZ-Betreiber muss sich also weder darum noch um die Qualität der Wärmeversorgung seiner Abnehmer Gedanken machen. Das Datacenter wird demnächst in Betrieb gehen; die Anbindung an die Nahwärmeversorgung soll mittelfristig folgen. Die Abwärme wird dann auch den Sommermonaten genutzt, indem sie einen Beitrag zur Warmwasserbereitung leistet.

Damit ist eines der größten wirtschaftlichen Probleme bei der Nutzung von Abwärme aus Rechenzentren gelöst. Denn obwohl inzwischen auch Technologien zur Verfügung stehen, um aus Abwärme Kälte zu erzeugen, und somit eine ganzjährige Nutzung möglich ist, bleibt es doch eine schier unmögliche Aufgabe, Abnehmer zu finden, die genau die verfügbaren Mengen benötigen.

Mehr Effizienz durch Adiabatik

Die sogenannte freie Kühlung bietet schon alleine ein hohes Einsparpotenzial. Sie lässt sich aber auch noch einmal verbessern. Der am meisten versprechende Ansatz ist die adiabate Kühlung (Verdunstungskühlung). Durch den Phasenübergang vom flüssigen in den gasförmigen Zustand entzieht dabei das Wasser der vorbeiströmenden Luft Wärme. Das senkt die Temperatur.

SDC SpaceNet Datacenter 1.jpg Der Internet-Service-Provider SpaceNet hat in Kirchheim bei München nach modernsten Maßstäben der Nachhaltigkeit ein Rechenzentrum nach DIN EN 50600 VK4 errichtet. (Bild: SpaceNet)

Um zu verhindern, dass die Luftfeuchtigkeit im Rechenzentrum und damit die Korrosionsgefahr der Hardware ansteigt, empfiehlt sich eine indirekte freie Kühlung. Dabei sorgt ein meist auf dem Dach installierter Luft-Wasser-Wärmetauscher für den Wärmetransfer. In ihm kühlt die Außenluft ein Gemisch aus Wasser und Glykol, das die Kühlsysteme im Inneren versorgt. Die physikalisch unumgänglichen Effizienzverluste durch einen zusätzlichen Wärmetauscher können durch weitere Maßnahme reduziert werden, etwa indem der Austausch mit der Außenluft durch Zerstäuben des Wassers oder Aufbringen auf Flächen mit feinen Lamellen erleichtert wird.

Anbietern zufolge lässt sich durch Freikühlanlagen mit Adiabatik im günstigsten Fall fast komplett auf die aufwendige mechanische Kühlung verzichten. Ohne Adiabatik kommt Freikühlung lediglich in 50 bis 60 % der Zeit ohne Unterstützung durch mechanische Kühlung aus. Ob die Bestwerte erreicht werden, hängt allerdings vom Standort ab. Umso geringer dort die Luftfeuchtigkeit ist, umso besser stehen die Chancen.

Dass Betreiber auch beim Einsatz einer adiabatischen Kühlung in Bezug auf Nachhaltigkeit noch zusätzliche Anstrengungen unternehmen können, zeigt derzeit der Internet-Service-Provider SpaceNet beim Neubau seines dritten Rechenzentrums im Osten von München. Das Besondere daran ist, dass eine Vielzahl der aktuell verfügbaren Techniken zur Effizienzsteigerung eingesetzt wird.

Sebastian-von-Bomhard-SpaceNet AG.jpg

Sebastian von Bomhard ist Vorstand der SpaceNet AG. Für ihn ist neben Sicherheit die Nachhaltigkeit des neuen Rechenzentrums ein zentraler Punkt: „Es mit Ökostrom zu versorgen, ist dabei nur ein Aspekt. Die nachhaltig erzeugte Energie soll auch effizient genutzt werden. Daher ist die Außenfläche des Gebäudes zum Beispiel so gestaltet und das Gebäude so ausgerichtet, dass es sich möglichst wenig durch Sonneneinstrahlung aufwärmt. Auch hier gilt: Was sich nicht erwärmt, muss nicht gekühlt werden“, sagt er.


SpaceNet AG, Joseph-Dollinger-Bogen 14, 80807 München, Tel.: (089) 32356-0, info@space.net, www.space.net

Umfassendes Monitoring

Einmal in Betrieb, befindet sich ein Rechenzentrum in ständigem Wandel. Dadurch werden selbst ausgefeilte Pläne für einen effizienten Betrieb schnell obsolet. Vermeiden lässt sich das nur, wenn durch geeignete Monitoring-Lösungen sichergestellt ist, dass alle erforderlichen Parameter stets bekannt sind und dank eines modularen Aufbaus des Rechenzentrums auch entsprechend auf sie Einfluss genommen werden kann.

Auch wie das geht, will das derzeit in Bau befindliche Rechenzentrum vormachen. Es wird bei der Inbetriebnahme als eines der ersten Rechenzentren die Vorgaben der neuen Norm EN 50600 VK4 erfüllen. Außerdem wird SpaceNet als einer der ersten Anwender in Deutschland das Monitoring-Tool Prometheus einsetzen. Hervorgegangen ist das Open-Source-Tool aus Erfahrungen ehemaliger Google-Mitarbeiter, die das bis dahin Google-interne Monitoring Borgmon und dessen umfassende Möglichkeiten bei ihrem neuen Arbeitgeber vermissten.

Ergänzt wird es durch den auf dem Prometheus Exposition Format basierenden Standard OpenMetrics. Er erlaubt es, Messdaten unterschiedlicher Bereiche schnell und einfach zueinander in Beziehung zu setzen. Prometheus und OpenMetrics werden unter dem Dach der Cloud Native Computing Foundation (CNCF), einer Tochter der Linux Foundation, weiterentwickelt. Initiator von OpenMetrics ist Richard Hartmann, der sich als Systemarchitekt und Projektleiter bei der SpaceNet AG seit Jahren mit dem Monitoring von Rechenzentren befasst.

KommRZ3.2018.ID08-Richard-Hartmann.jpg

Richard Hartmann ist Systemarchitekt und Projektleiter bei der SpaceNet AG, außerdem Teammitglied der Prometheus-Entwicklergemeinde sowie Initiator und treibende Kraft hinter OpenMetrics. Das Projekt gibt es zwar erst seit 2017, doch bereits rund ein Jahr später, am 10. August 2018 erhob die Cloud Native Computing Foundation auf der PromCon in München das Mutterprojekt Prometheus in den Status Graduation und nahm zugleich OpenMetrics in die Sandbox auf. Zu den Beiträgern der OpenMetrics-Entwicklung gehören Sysdig, OpenCensus, Google und Uber sowie AppOptics, Cortex, Datadog, InfluxData und eben Prometheus.


SpaceNet AG, Joseph-Dollinger-Bogen 14, 80807 München, Tel.: 089-32356-0, info@space.net, www.space.net

In dieser Funktion nutzt er das Open-Source-Monitoring sowohl für die ganzheitliche Sicht auf das Rechenzentrum als auch für die schnelle Fehlersuche. Durch die Kombination mit OpenMetrics greift das Monitoring über die reine IT hinaus. Damit lassen sich auch andere Bereiche überwachen – von Produktionsanlagen bis zu Business-Metriken. Das wiederum hilft, die IT-Komponenten und deren Verbrauch möglichst effizient zu steuern. Damit wird sichergestellt, dass die in der Planung aufgestellten und theoretisch möglichen Effizienzziele im praktischen Betrieb auch tatsächlich erreicht werden.

Daueraufgabe Nachhaltigkeit

Zertifizierungen wie ISO 27001, die neue EN 50600 VK4 oder Green IT sind ebenso wie der PUE-Wert hilfreiche Leitplanken auf dem Weg zu möglichst energieeffizienten Rechenzentren. Alle vorhandenen Möglichkeiten auszuschöpfen, wird nicht immer möglich sein, zumal die erreichte Effizienzverbesserung sich nicht immer auch wirtschaftlich rechnet und es noch unsicher ist, ob ausreichend viele Kunden für eine bessere Umweltbilanz auch mehr bezahlen wollen.

Um den Schritt von der Energieeffizienz zur Nachhaltigkeit zu gehen, sind daher auch neue Denkansätze notwendig. Die Optimierungsmöglichkeiten beginnen bei der Wahl des Standorts und der Baustoffe und reichen über die Beschaffung und umweltverträgliche Rückführung des Kühlwassers bis zur Einspeisung der Abwärme in Nahwärmenetze. Erste Pioniere gehen diesen Weg bereits.

Nützliche Links