Abschlussveranstaltung zum GGC-Lab, Teil 2: Was die Forschung am GGC-Lab gebracht hat

Am Anfang war die Vermutung: dass sich eine Menge Energie und Kosten dadurch einsparen ließe, dass sich kommunale Rechenzentren als Verbund organisieren und die Last jeweils dorthin verschieben, wo es gerade am günstigsten ist. Das stimmt auch. Allerdings ist das Verbundmanagement enorm komplex.

Größte Herausforderung ist das Verbundmanagement

Von Sabine Philipp und Eduard Heilmayr

Nach der Mittagspause der GGC-Lab-Abschlussveranstaltung am 11. November 2014 kam die Vortragsreihe an Björn Schödwell von der TU Berlin. Dort verfolgte eine wissenschaftliche Arbeitsgruppe das konkrete Ziel, Kennzahlen zur Steuerung des Lastmanagements zu erfassen. Dabei konzentrierten sie sich primär auf die Parameter Energiekosten und CO₂-Effizienz.

Bei der Energieeffizienz stellte das Team gewaltige Unterschiede zwischen den Rechenzentren fest. Als Ursachen wurden in erster Linie die Gebäudetechnik, ineffiziente IT-Strukturen und veraltete Klimaanlagen ausgemacht. So hatte das energieeffizienteste Rechenzentrum eine Kälteanlage, die zwar sehr viel Strom zieht, wenn sie läuft, doch konnte der Verbrauch durch den Einsatz eines Freikühlers abgefangen werden; im Winter benötigte die Anlage fast keinen Strom.

Potenzial sieht der Wirtschaftsingenieur auch im Bereich der Pumpen. Den wenigsten Rechenzentrumsbetreibern sei bewusst, dass hier ein großer Verbrauch entstehe, bei dem man ansetzen könne.

GGC-Lab-Vortrag Schoedwell.png
Kennzahlen und Messungen zur Energieeffizienz: die Präsentation von Björn Schödwell (Bild: GGC-Lab)

Messtechnik und Monitoring

Exemplarisch stellte Schödwell den Strombedarf eines Rechenzentrums an den Tagen Dienstag und Sonntag gegenüber. Wie erwartet, war der Verbrauch am Werktag höher. Überraschend war jedoch der immer noch hohe Strombedarf am Sonntag. Die Gründe dafür konnten die Berliner Wissenschaftler messtechnisch zwar nicht eruieren, da es keine flächendeckende Performance-Messung gab. Sie vermuten jedoch, dass die IT-Systeme auch unter der Woche nur minimal ausgelastet sind, sodass kaum ein Gefälle zur Dauergrundlast entstehe. Dass man die Anlage am Wochenende auch ausschalten könne, werde offenbar nicht in Erwägung gezogen, kommentierte Schödwell. Erhebliche Energieeinsparungen seien insgesamt durch dynamische Lastkonsolidierung und durch die Abschaltung nicht benötigter Hardware möglich.

Heise rz-und-ccomputing.jpg
Das Loseblattwerk Rechen­zentren und Cloud Computing wird die Projekt­ergebnisse im Einzelnen darstellen. (Bild: Heise Zeitschriften Verlag)

Unter den Herausforderungen nannte er an erster Stelle die „robuste, vollständige und einheitliche Erfassung der notwendigen Messwerte“. Denn das von regio IT entwickelte Monitoring-System konnte zwar die Daten aus den verschiedenen Quellen zusammenführen, sie kombinieren und mit ihrer Hilfe andere Kennwerte berechnen, doch im Zusammenspiel von vier Rechenzentren stellte sich das als problematisch dar. Bereits kleine Änderungen in einem Rechenzentrum konnten einen Kollaps bedeuten. Weitere Hürden bestanden im Aufwand bei der Installation sowie darin, die Messtechnik auf dem aktuellen Stand zu halten.

Schödwell zeigte sich jedoch zuversichtlich, dass sich die Lage im Bereich der Messtechnik auf längere Sicht entspannen werde. IT- und Gebäudetechnikhersteller bewerben zunehmend Datacenter-Infrastrukturmanagementlösungen, die mehr und mehr darauf abzielen, Gebäudetechnik und IT zugleich zu monitoren.

Ressourcen-Controller für die Lastverteilung

Anschließend sprach Bernhard Cygan vom Konsortial­partner StoneOne. Konkrete Projekt­aufgaben waren hier das über­greifende Monitoring von Rechen­zentrums- und ESX-Daten sowie die Last­verteilung zwischen den Rechen­zentren. Cygan konnte von dieser Warte aus bestätigen, was zuvor verschiedentlich angeklungen war: dass eine stabile Labor­umgebung extrem wichtig ist, dass die technischen Parameter eines rechen­zentrums­übergreifenden Labors unvermutet komplex und keineswegs trivial sind sowie dass geeignete Software noch schwer zu finden ist.

Fazit: Kommunale Verbundrechenzentren für die Zukunft

Wie die Ergebnisse des Government Green Cloud Laboratory zu verwerten seien, war zum Abschluss das Thema von Dieter Rehfeld (regio iT), der außerdem einen Ausblick in die Zukunft der kommunalen IT-Branche wagte. Er hob den Umstand, dass das Konsortium zusammengeblieben sei, als wichtigen Erfolg hervor. Auch das von Stine Labes vorgestellte Geschäftsmodell würdigte er als „sehr stark“ – schließlich werde zurzeit ja nicht nur im kommunalen Bereich über Cloud-Verbundlösungen nachgedacht.

Rehfeld hielt als Ergebnis auch fest, dass es sich lohne, das Thema Energieeffizienz in Rechenzentren weiter zu verfolgen, auch wenn sich das Konzept, die Anwendungen innerhalb der Community zu verschieben, als sehr anspruchsvoll erwiesen habe. Die Schaffung eines gemeinsamen Energieeffizienzmanagement-Consulting-Systems (bis hin zur Erstellung einer gemeinsamen Benchmark) sei jedoch ein lohnender Ansatz.

GGC-Lab-Vortrag Cygan.png
Ressourcen-Controller: Präsentation von Bernhard Cygan (Bild: StoneOne)

In der Zukunft würden sich, so Rehfeld, die Rahmenbedingungen eher zugunsten derartiger Vorhaben verändern. So dürfte die Zahl Cloud-fähiger Anwendungen deutlich zunehmen. Auch ist ein Wandel aufseiten der Kunden zu erwarten, die verstärkt darauf achten werden, wo genau sie rechnen lassen wollen. Diese Standortfrage betrifft sowohl Fragen von Datenschutz und Datensicherheit als auch das Problem, wie Organisationen im Zweifelsfall wieder aus der Cloud herauskommen.

Serie: Abschlussveranstaltung zum GGC-Lab
Teil 1 berichtet vom Vormittag des 11. November 2014, als die Konsortialpartner in Berlin ihre Projektresultate präsentierten. Teil 2 setzt auseinander, warum sich gerade das Vorhaben der Lastverteilung im Verbund als schwierig erwies, und bewertet den Nutzen der Gesamtergebnisse.

Als ein zentrales Erfordernis formulierte Rehfeld die Etablierung von IT-Architekturen, die eine konsequente Trennung von Services und Datenbank zulassen: „Da wir ja immer mit den gleichen Daten arbeiten, wäre es schlau, wenn man unabhängig von den Anwendungen auf eine gemeinsame Datenbank zugreifen könnte.“ Das sei natürlich einfacher formuliert als umgesetzt, aber auf der anderen Seite gebe es Hersteller, die genau hierzu bereits Überlegungen anstellen. Rehfeld zeigte sich zuversichtlich, dass solche Konzepte auch Mehrwerte in den Bereichen Datenschutz und Datensicherheit generieren könnten.

Zu diesem Zeitpunkt hatte sich die Ergebnispräsentation längst vom Projektabschluss zur To-do-Liste gewandelt. Man habe zwar nicht alle Ziele erreicht, resümierte Rehfeld, aber so sei das bei Forschungsprojekten nun einmal. Wichtig ist jetzt, mit den durchaus wertvollen Erkenntnissen richtig und realistisch umzugehen, praktische Fragen neu zu stellen und das zentrale Anliegen der Energieeffizienz nicht aus den Augen zu verlieren.

KITK-Heilmayr.jpg

Eduard Heilmayr war acht Jahre lang Chefredakteur bei „Markt & Technik“, anschließend dort im Verlagsmanagement tätig. 1992 gründete er die AWi Aktuelles Wissen Verlagsgesellschaft mbH in München, die IT-Fachmagazine wie „LANline“, „Windows NT“, „Unix Open“, „Inside OS/2“ und „Electronic Embedded Systeme“ publizierte. Nach dem Verkauf des Verlags gründete er 2004 Delphin Consult. Neben meist mehrjährigen Projektarbeiten für renommierte Medienunternehmen wie Heise oder techconsult publiziert Heilmayr für rund 4000 Leser regelmäßig den redaktionellen Newsletter „Kommunale ITK“, der im MittelstandsWiki eine eigene Rubrik hat.

Nützliche Links

Die Vortragspräsentationen von Bernhard Barz, Stine Labes, Uwe Brünnicke, Björn Schödwell und Bernhard Cygan gibt es auf der GGC-Lab-Projektseite als PDFs zum Herunterladen.