GGC-Lab auf der CeBIT 2014: Was kommunale Rechenzentren im Verbund leisten

Durch Lastenverlagerung und einen intelligenten Ressourcencontroller könnten kommunale Clouds zugleich flexibel Rechenleistung beziehen, Ressourcen schonen und Energiekosten sparen. Wie das klappen könnte, demonstriert das Government Green Cloud Laboratory (GGC-Lab) auf der kommenden CeBIT 2014.

Die Community Cloud ist startklar

Von Sabine Philipp

Viele Unternehmen haben Cloud Computing bereits als gangbaren Weg erkannt, Kosten zu sparen und Ressourcen zu schonen, vor allem durch die nutzungsabhängige Miete von Fachanwendungen (Software as a Service) und durch die Konsolidierung von Rechenleistung. Diese Argumente haben auch Kreise und Kommunen hellhörig gemacht.

Allerdings ist die Ausgangssituation für sie schwieriger als für die freie Wirtschaft: „Die rechtlichen Rahmenbedingungen, heterogene, hochspezialisierte Verfahren und der Entwicklungsstand heutiger Fachanwendungen schränken die Potenziale des Cloud Computing im Öffentlichen Sektor nach wie vor stark ein“, bedauert Dipl.-Ing. Björn Schödwell von der TU Berlin. Im Forschungsvorhaben Government Green Cloud Laboratory (GGC-Lab) arbeiten der Wirtschaftsingenieur und seine Kollegen daran, diese Probleme zu lösen. Auf der CeBIT 2014 stellen die Forscher am BMWi-Messestand (Halle 9, Stand E24) das Projekt vor.

Intelligente Lastverschiebung

„Die Basis unserer Community Cloud ist ein Netzwerk aus öffentlich-rechtlichen IT-Dienstleistern, die durch sichere Verbindungen, so genannte Virtual Private Networks miteinander verbunden sind“, erklärt Projektmitarbeiter Björn Schödwell. „Die Vorgänge der Kommunen werden jeweils in dem Rechenzentrum verarbeitet, in dem es aus energetischen oder energiepreislichen Gründen gerade am günstigsten ist.“

Dabei setzen die Forscher auf zwei Strategien. Zum einen sind die Rechenzentren „so ausgelegt, dass sie die Spitzen abdecken können. Außerhalb dieser Stoßzeiten wird ein großer Teil der Rechen-, Speicher- und Übertragungskapazitäten nicht benötigt und kann von einem anderen Rechenzentrum genutzt werden“, erklärt Schödwell. Der andere Ansatz nimmt die Energieeffizienz der Hardware und Gebäudetechnik sowie die Strompreise und -mixe in den Blick. Schödwell skizziert das Prinzip so: „Wenn ein Rechenzentrum in Hamburg von einem Windkraftwerk betrieben wird und der Wind dort reichlich weht, verlagert sich die Last nach Hamburg, weil es dort günstigen Strom im Überfluss gibt.“

http://www.ggc-lab.de/

Dipl.-Ing. Björn Schödwell ist wissenschaftlicher Mitarbeiter an der TU Berlin und Projektmitarbeiter des GGC-Labs. Der Wirtschaftsingenieur forscht u.a. zu den Themen Energie- und Ressourceneffizienz von Rechenzentren sowie zu Cloud Computing und RZ-übergreifendem Lastmanagement.

Ressourcencontroller und Infrastruktur

Die Entscheidung, in welches Rechenzentrum die Last verschoben wird, treffen Ressourcencontroller auf Basis konfigurierbarer Regelsysteme und Echtzeitkennzahlen. Wie Björn Schödwell hervorhebt, kann jeder der beteiligten IT-Dienstleister den Ressourcencontroller selbstständig konfigurieren und sein Optimierungsziel individuell vorgeben: „Die Software arbeitet mit einem Algorithmus, der auf Basis einer energie- und/oder kostenoptimalen Regelungsstrategie den bestmöglichen Lastverarbeitungsort innerhalb des Konsortiums ermittelt und anschließend eine entsprechende Verschiebung der Lasten veranlasst.“

Voraussetzung einer solchen Community Cloud ist jedoch der Aufbau einer entsprechenden Infrastruktur – und das ist kein leichtes Unterfangen. Schödwell berichtet:

„Wir haben die Interaktionen entlang der gesamten Wertschöpfungskette vom Anwender, über die Kommune und Betreiber des Rechenzentrums bis hin zu den Herstellern der Fachanwendungen untersucht und übertragbare Modelle zu den Rollen, Prozessen und Organisationsstrukturen geschaffen. Dabei haben wir auch die technologischen Anforderungen an die Infrastruktur und die Kennzahlen und Verlagerungsmechanismen für ein effizientes Lastmanagement bestimmt.“

Fachanwendungen und Verfügbarkeit

Abgesehen davon muss man klar sagen, dass sich nicht jede Fachanwendung für die Cloud-Nutzung eignet. „Wir haben gemeinsam mit der Bundesarbeitsgemeinschaft der Kommunalen IT-Dienstleister (VITAKO e.V.) ein Kriterienkatalog erarbeitet, um die Cloud-Fähigkeit von Fachanwendungen zu bewerten. Aktuell erprobt das GGC-Lab den Betrieb der Fachanwendungen VOIS (allgemeine Bürgerverwaltung), P-Travel (Reisekostenabrechnung) und Vote Manager (Wahlplanung und -durchführung).

Ein anderer Punkt, der vielen Cloud-Nutzern Sorgen bereitet, ist das Szenario eines Systemausfalls. Schödwell betont, dass hier gerade ein kommunales Cloud-Netzwerk besondere Sicherheit bieten könne: Wenn ein Anbieter ausfalle, übernehme ein anderes Rechenzentrum dessen Aufgaben.

Fazit: Vorführmodell auf der CeBIT

Schließlich stellt sich noch die Frage, unter welchen rechtlichen Rahmenbedingungen Kommunen überhaupt in eine Cloud gehen dürfen. „Wir haben den Ansatz einer anbieterbasierten Community Cloud, d.h. den Zusammenschluss kooperierender IT-Dienstleister, die ihren Kunden mit einem vereinten Ressourcenpool gemeinsamen Fachanwendungen als Software as a Service anbieten, näher untersucht“, berichtet Schödwell „Hierbei regelt ein Vertrag die Rechte und Pflichten der Community-Mitglieder zueinander. Der Zugang für andere IT-Dienstleister zum GGC-Lab ist nur insofern beschränkt, als dass diese erst gewisse Voraussetzungen erfüllen und dem Community Vertrag beitreten müssen.“

IT2Green-Logo.png
Das GGC-Lab stellt seine Forschungsergebnisse im Rahmen des Technologieprogramms IT2Green auf der CeBIT 2014 am BMWi-Messestand (Halle 9, Stand E24 vor. (Bild: BMWi)

Die Mitarbeiter des GGC-Labs sind insgesamt fest davon überzeugt, dass Cloud Computing auch für Kommunen eine Chance bietet, Ressourcen einzusparen und die Energieeffizienz zu steigern. Auf der CeBIT 2014 hat man Gelegenheit, Einblick in ihre vielversprechenden Forschungsergebnisse zu erhalten. Neben dem Modell der Lastenverlagerung werden die Wissenschaftler in Hannover auch Projektentwicklungen wie den Ressourcencontroller oder das systemübergreifende Monitoring-System einer Cloud-Instanz vorstellen.

Nützliche Links

Maßgebliche Publikation zum Thema ist die bereits zweimal aktualisierte Heise-Loseblattwerksammlung „Rechenzentren und Cloud Computing – Ein aktuelles Handbuch für die Öffentliche Verwaltung“. Die einzelnen Projektberichte IKM (Fachgebiet Informations- und Kommunikationsmanagement) der TU Berlin, hrsg. v. Prof. Dr. Rüdiger Zarnekow (2012 ff.), gibt es kostenfrei im Digitalen Repositorium der TU als PDFs zum Herunterladen. Ebenfalls frei verfügbar ist der Beitrag von Stine Labes: Anforderungen an die Cloud, in VITAKO Intern 1 (2013), S. 5–6.