Software-defined Power: Wie Micro­grids den RZ-Strom­verbrauch steuern

Zwei Trends könnten einander im Rechen­zentrum sinn­voll er­gänzen: in­telli­gente Me­cha­nis­men bei der Energie­nutzung und -verteilung sowie die Virtuali­sierung, die mittel­fristig auch auf die Energie­versorgungs­komponenten der Data­center aus­ge­dehnt werden könnte: Software-defined Power heißt das Stichwort.

Batteriebänke zu Microgrids

Von Ariane Rüdiger

Zum Berg der Themen, mit denen sich Rechenzentrumsmanager in Zukunft befassen müssen, wird demnächst wohl ein weiteres von mittelfristig großer strategischer und finanzieller Relevanz hinzukommen: durch Software gesteuerte und optimierte Energieversorgung. Man könnte hier von der letzten Stufe der RZ-Virtualisierung sprechen. Letztlich geht es um das Einziehen einer steuernden Softwareschicht zwischen den Stromressourcen eines Unternehmens und seinen Verbrauchern.

Was dadurch möglich ist, geht über das bisherige Energiemanagement mit DCIM-Software deutlich hinaus. Benutzt ein Rechenzentrum überhaupt entsprechende Programme, fokussieren diese oft darauf, den Energieverbrauch der Lasten zu messen und zu prognostizieren, Berichte zu generieren und so weiter. Dabei geht es auch um die Optimierung der PUE (Power Usage Effectiveness), um die Beschaffung erneuerbarer Energien oder entsprechender Zertifikate sowie um die Abwärmenutzung.

Zudem können entsprechende Produkte je nach Fokus die Stromqualität kontrollieren, Schwankungen bei Spannung und Strom feststellen und Reaktionen auslösen, harmonische Oberschwingungen und andere Störungen feststellen und ausfiltern oder Stromausfälle detektieren und auf sie reagieren. Solche Softwarefunktionen stecken häufig in den Paketen, die mit oder als Ergänzung zu USV-Systemen (unterbrechungsfreie Stromversorgung) geliefert werden. Hier liegt auch die Domäne der klassischen Infrastrukturlieferanten wie Schneider, Eaton oder Emerson/Vertiv.

Stromverbrauch auf die Agenda

Schließlich haben Hersteller wie Dell, HP und IBM Serversysteme entwickelt und auf den Markt gebracht, mit denen es möglich ist, selektiv einzelne Komponenten oder Applikationen im Stromverbrauch zu begrenzen, wenn bestimmte Schwellenwerte überschritten werden.

Allerdings, so das zu 451 Research gehörende Uptime Institute, wird all dies nicht allzu oft in seiner gesamten Funktionsmächtigkeit eingesetzt: Ein sparsamer Stromverbrauch gehört laut dem RZ-Beratungsunternehmen meist nicht zu den Top-Prioritäten auf der Liste des Datacenter-Managements. Nutzern und Betreibern von Rechenzentren kommt es auch im Zeitalter des bereits fühlbaren Klimawandels vor allem darauf an, Sicherheit und die vom Kunden gewünschte Verfügbarkeit anzubieten.

RZ 2-2019.jpg

Schwarz auf Weiß
Dieser Beitrag ist zuerst in unserer Magazin­reihe „Rechen­zentren und Infra­struktur“ als Beilage zur iX erschienen. Einen Über­blick mit freien Down­load-Links zu sämt­lichen Einzel­heften bekommen Sie online im Presse­zentrum des MittelstandsWiki.

Ansonsten schließt man sich gern in Lobbyverbänden zusammen, wettert über hohe Strompreise oder kauft Erneuerbare-Energien-Zertifikate, um sich ein grünes Mäntelchen umzuhängen, statt es mit innovativen Ideen zu versuchen. „90 % der heute vorhandenen Strommanagementtechnologien sind seit mehr als zehn Jahren verfügbar, werden aber kaum eingesetzt“, sagte Andy Lawrence, Executive Director of Research beim Uptime Institute anlässlich eines Webinars zum Thema Smart Energy im Datacenter.

Das könnte sich allerdings durch eine Kohlendioxidabgabe oder -steuer, die zudem die Netzstabilisierung bei ihren Vorgaben berücksichtigt, durchaus ändern. Denn wenn Strom zu bestimmten Zeiten billiger ist als zu anderen und wenn jede Kilowattstunde aus dem Netz deutlich mehr kostet, falls der Strom gerade knapp ist, wird es plötzlich lohnend, in entsprechende Produkte zu investieren. Denn dann lässt sich mit einem geschickten Energiemanagement seitens des Providers vielleicht sogar Geld verdienen.

Softwaregesteuerte Energieoptimierung

Softwaregesteuerte Energieoptimierung soll es einfacher machen, vorhandene Energieressourcen und den Rechenbedarf in Einklang zu bringen. Ein weiteres Ziel kann darin bestehen, die üblicherweise implementierten riesigen Überkapazitäten bei der Stromversorgung durch weniger üppige Konzepte zu ersetzen, ohne die Sicherheit zu beeinträchtigen. Heute wird bei hochsicheren Rechenzentren grundsätzlich alles doppelt vorgehalten (2n), etwas weniger sichere mit noch immer hohen Verfügbarkeitswerten (Tier 3) kommen mit n+1 aus. Das bedeutet, dass so viele Ressourcen (Stromquellen, USV etc.) vorhanden sein müssen, dass der Ausfall einer von ihnen ohne Probleme für die Verfügbarkeit zumindest über einen definierten Zeitraum verkraftbar ist.

Ziel ist letztlich die Data Center Energy Optimization (DCEO). Diesen Begriff gibt es erst seit 2014. Eingeführt wurde er von 451 Research. DCEO soll laut Uptime-Definition mehr sein als Energiemanagement, wie es bisher – meist von DCIM-Systemen – vollzogen wurde. Es soll hier um Applikationen gehen, die Zugriff auf Informationen zur IT-Infrastruktur bis auf VM-, Container- und Applikationsebene gewinnen und die andererseits bis in die Stromversorgungsinfrastruktur hinausreichen, um beides miteinander in Einklang zu bringen. Ein Beispiel ist die Teilnahme an Demand-Response-Infrastrukturen, die helfen, Spitzenbedarfe im Stromnetz zu decken oder zu kappen.

Im Grunde lässt sich auch heute schon jedes hochverfügbare Rechenzentrum als sogenanntes Microgrid betreiben – zumindest potenziell, etwa im Notfall. Der Begriff wurde am Berkeley Lab definiert und beschreibt eine Gruppe von Stromquellen und -senken, die mit dem öffentlichen Stromnetz synchronisiert sind, aber bei Bedarf auch allein arbeiten können. Allerdings beanspruchen RZ ihre Notstromreserven außer in Notfällen und bei Tests kaum. Nur selten wird die zur Verfügung stehende Notfallenergie gegen Geld für die Netzstabilisierung verwendet (in Deutschland ist dies seit wenigen Jahren rechtlich möglich). Die Gründe stehen oben.

Möglicher Motor: Li-Io-Batterien

Dennoch wäre mehr Flexibilität sehr wünschenswert, zumindest wenn die Sicherheit unbeeinträchtigt bleibt. Eine wichtige Rolle könnten dafür in Zukunft Lithium-Ionen-Batterien spielen.

Derzeit werden in Rechenzentren noch häufig Bleisäurebatteriebänke als kurzfristige Notstromressource, bis der Diesel hochfährt, verwendet. Doch Li-Ionen-Batterien haben neuartige Merkmale, beispielsweise ihre Resistenz gegenüber Tiefentladungen, ihre vergleichsweise lange Haltbarkeit sowie die schnelle Ladefähigkeit. Dadurch sind sie geeignet, als flexible Ressource auch fürs öffentliche Stromnetz zu dienen.

Serie: Smart Grids

MW-PLZ0123-01-EMH-Metering-Produktion-in-Gallin-3.jpg

Teil 1 fängt dort an, wo derzeit der Schuh drückt: Der Umstieg auf erneuerbare Energien macht bei vielen dezentralen Erzeugern die Netzstabilität zu einem schwierigen Balanceakt. Die erste Aufmerksamkeit gilt darum (Puffer-)Speichern, Smart Metern – und eben flexiblen Netzen. Das Schüsselstichwort hierzu lautet „Sektorenkopplung“. Teil 2 berichtet aus Nordrhein-Westfalen, welche konkreten Lösungen für Smart Grids dort bereits im Einsatz sind. Teil 3 geht in den Süden und berichtet, wie Bayern bis 2050 seine Energie CO₂-neutral erzeugen will. Ein Extrabeitrag berichtet vom Neubau des 50Hertz-Rechenzentrums, außerdem gibt es einen Smart-Grid-Report aus Österreich. Weitere Regionalreports sind in Vorbereitung. (Bild: EMH metering)

Um solche Szenarien umzusetzen, braucht man intelligente Managementsoftware. Sie muss zum einen genau die Lasten, ihre Kritikalität und die freien bzw. belegten Ressourcen im RZ kennen, zum anderen die verfügbaren Energiequellen, ihre Merkmale und Preise. Solche Software könnte bei Angebotsengpässen im Netz, eine entsprechend günstige Bedarfslage im eigenen RZ vorausgesetzt, die kostenpflichtige Belieferung der öffentlichen Netzinfrastruktur aus den RZ-Batterien auslösen. Etwa dann, wenn es in Zukunft ökonomisch günstig ist, Strom ins Netz zu speisen, weil eine der berühmten Dunkelflauten herrscht. Dann produzieren nämlich weder Windräder noch Solaranlagen, und im Erneuerbare-Energien-System der Zukunft liegen hier auch für unkonventionelle Stromlieferanten unter Umständen lukrative Chancen.

Gepoolte Stromressourcen im Netz

Aber auch ohne solche Absatzmöglichkeiten im Sinn kann es sich lohnen, sämtliche Stromressourcen im Unternehmen einschließlich entsprechend dimensionierter USV und Li-Ionen-Bänke mithilfe statischer Umschalter, die entsprechend sicher ausgeführt sein müssen, zu poolen. Uptime glaubt, dass durch solche Technologien die starren Definitionen 2n oder n+1 für das Redundanzniveau möglicherweise abgelöst werden von Prozentwerten.

Der Grund dafür, dass Rechenzentren ihre Strominfrastruktur heute am Spitzenbedarf entlang definieren, obwohl der nur selten auftritt, sind Sicherheits- und Verfügbarkeitserwartungen. Zudem werden alle Applikationen gleich betrachtet, obwohl auch in einem 2n-Rechenzentrum für geschäftskritische Anwendungen wahrscheinlich viele Applikationen laufen, die nicht unbedingt ständig online sein müssen. Sie werden also gewissermaßen „zu gut“ mit Strom versorgt, und das eröffnet in einem Pooling-Modell Freiheitsgrade. Das gilt auch für leerlaufende Server, die mehrere hundert Watt weniger ziehen könnten als solche, die gerade fleißig wichtige Applikationen rechnen.

Bei einer virtualisierten RZ-Stromversorgung könnte n= 132 % bedeuten, dass das Rechenzentrum insgesamt über 132 % der nötigen Stromkapazitäten verfügt, um Verfügbarkeit sicherzustellen. Fällt eine USV für eine Last aus, kann deren Rolle bei virtualisierter Stromverteilung ohne Weiteres eine andere USV samt der an sie angeschlossenen Ressourcen übernehmen. Das, so sagt Uptime, erhöhe aber gewaltig die Komplexität der Steuerung.

Neue Preismodelle für Kolokateure

Uptime mutmaßt, dass Modelle, bei denen n nicht so starr festgelegt ist wie in den bisherigen Architekturen, für Kolokateure ein interessantes Geschäftsmodell darstellen könnten. Colocation-Betreiber können nämlich ihren Kunden dann andere, stärker differenzierte Service Level Agreements mit entsprechenden Preisen anbieten, je nachdem, wie viel Redundanz ein Kunde tatsächlich für seine Lasten will. Das kann auch für Kolokationskunden interessant sein, denn sie könnten ihre Lasten je nach Bedarf mit unterschiedlichen Redundanzen im Strombereich betreiben, ohne dafür in ein anderes Rechenzentrum ausweichen zu müssen.

Besonders günstig könnten solche Modelle funktionieren, wenn Rechenzentrumsbetreiber teilweise auf gebrauchte, aufgearbeitete Li-Io-Akkus zurückgreifen, die dank des elektronisch betriebenen Fahrens mit seinen besonders hohen Ansprüchen an die Batterien in einigen Jahren massenweise anfallen werden. Aus Autos mit Elektroantrieb müssen die Akkus nämlich ausgebaut werden, sobald ihre Kapazität auf 70 bis 80 % gefallen ist. Für Rechenzentrumsanwendungen könnte das aber durchaus noch ausreichen.

Serie: Mobilität 4.0
Der Einführungsbeitrag beginnt in Berlin – die Bundeshauptstadt ist experimentierfreudiger Vorreiter neuer Mobilitätskonzepte. Gute Beispiele meldet der Report auch aus Hamburg und Dresden. Teil 2 begibt sich dann in den Westen nach Nordrhein-Westfalen; dort hat das Zukunftsnetz Mobilität NRW viele Projektfäden in der Hand. Eine wichtige Rolle spielt hier der öffentliche Personennahverkehr, denn immer mehr Verkehrsbetriebe lassen ihre Busse mit Biogas fahren. Teil 3 geht zu den Ursprüngen der Automobilindustrie und sieht sich an, wie sich Baden-Württemberg und insbesondere Stuttgart die Zukunft der Mobilität vorstellen. Teil 4 berichtet aus dem benachbarten Flächenland Bayern, Teil 5 fährt über die Grenze nach Österreich. Außerdem gibt es bereits einen Report zu mobilen Stauwarnanlagen und intelligentem Verkehrsmanagement sowie zu autonomen Schiffen, Wasserstoffprojekten, Business-Bikes, Stadtseilbahnen sowie Lufttaxis und Urban Air Mobility.

Eine virtualisierte Stromversorgung und -verteilung bietet Rechenzentrumsbetreibern also Potenzial für neue ökonomische Wertschöpfungsmodelle. Die Bereitschaft, auch in komplexere Strommanagementprodukte zu investieren, könnte sich durch die wachsende Größe und Komplexität von RZ-Infrastrukturen erhöhen.

Wer bereits in erneuerbare Energien für sein RZ investiert (dies tun derzeit vor allem, aber nicht nur die Hyperscaler), wird wohl am ehesten geneigt sein, auch im Bereich Power zu virtualisieren. Gesetze, die Kohlendioxid bepreisen machen es möglicherweise auch für kleinere Provider lukrativ, in solche Technologien einzusteigen. Auch deshalb: Wer weniger Fläche für die Bereitstellung von (Reserve-)Strom braucht, hat mehr Platz für die Rechner seiner Kunden.

Plakative Newcomer-Marke

Der Markt für entsprechende Produkte ist noch relativ begrenzt. Entsprechende Funktionen sind häufig in ein umfassendes Datacenter-Management integriert, etwa bei Siemens (Clarity), Hitachi (Vantara) oder bei IBM. Derzeit macht ein Start-up in den USA viel von sich reden, das den plakativen Begriff Software-defined Power (SDP) von der inzwischen insolventen Power Assure, einem leider nicht erfolgreichen Vorreiter in Sachen Stromvirtualisierung, aufgekauft und inzwischen markenrechtlich geschützt hat: Die 2014 in Kalifornien gegründete VPS (Virtual Power Systems) beschäftigt derzeit rund 50 Mitarbeiter und setzt 5 Millionen Dollar um. Zu den Partnern, mit denen VPS aktuell technisch und vertrieblich zusammenarbeitet, gehören Schneider, HPE, Lenovo und Intel sowie andere, hierzulande weniger bekannte Unternehmen. CEO Steve Houck kommt von Vmware.

MW-KommRZ2.2019.ID04-ice diagram2.jpg
Die ICE-Lösung von VPS virtualisiert und optimiert die Stromversorgung im Rechenzentrum. Sie besteht aus Software und Hardware, wobei Letztere im Rechenzentrum des Anwenders installiert wird. (Bild: Virtual Power Systems)

Das Produkt, die ICE-Plattform (Intelligent Control of Energy), soll demnächst mit vCenter integriert werden. Die aktuelle Version kann bereits den Ausfall eines kompletten Rechenzentrumsstandorts kompensieren. Eine Pressemeldung vom Herbst 2018 verkündete die Nutzung von ICE durch das Co-Innovation Lab von SAP. Andere Kunden gibt das Unternehmen noch nicht bekannt.

Die ICE-Plattform von VPS besteht aus Hard- und Software. Sie nutzt wissensbasierte Algorithmen (künstliche Intelligenz, Machine Learning), um die Strombereitstellung im Rechenzentrum zu optimieren. Im Rechenzentrum werden Li-Ionen-Batterien („ICE-Block“) und ein Server von VPS installiert, der mit seinen Applikationen die Analyse und Allokation von Strom im Rechenzentrum übernimmt. Durch das Poolen von Racks zu einer energetischen Einheit ist es möglich, die Stromobergrenze eines einzelnen Racks kurzfristig zu überschreiten, ohne dass die Sicherung auslöst.

Angeblich lässt sich mit diesen Mechanismen die Lebensdauer der eingesetzten Batterien um gut ein Drittel erhöhen. ICE ermöglicht, dass kurzfristige Peak-Bedarfe, die zu teuren Einkäufen im Netz zwingen könnten, mit den eigenen Batterien gedeckt werden. Für den Anwender können sich laut VPS daraus „gefühlte“ Kapazitätszuwächse um bis zu 20 % ergeben.

Nützliche Links