Abschlussveranstaltung zum GGC-Lab, Teil 1: Wann die kommunale Community Cloud kommt

Zum BMWi-Programm IT2Green gehört das Projekt Government Green Cloud Laboratory (GGC-Lab), das eine kommunale Community Cloud aufsetzte und auf Energieeffizienz abklopfte. Bei der Abschlussveranstaltung in Berlin hat das Konsortium die wichtigsten Ergebnisse präsentiert: Es klappt bereits – im Prinzip.

Die Community Cloud läuft, das Geschäftsmodell hält

Von Sabine Philipp und Eduard Heilmayr

Zwei Jahre lang hatte ein Konsortium unter Federführung der Technischen Universität Berlin im Government Green Cloud Laboratory (GGC-Lab) in einer kontrollierten Laborumgebung die Möglichkeiten von Cloud Computing in der öffentlichen Verwaltung ausgelotet. Am 11. November 2014 präsentierten die Teilnehmer im Berliner Ulrich-von-Hassell-Haus des Deutschen Landkreistages ihre Resultate.

Auf den Punkt gebracht lautet das Gesamtergebnis: Ja, ein kommunaler Cloud-Verbund klappt. Und die Rechenzentren können kräftig Energie sparen. Dies aber wie geplant durch intelligente Lastverschiebung innerhalb des Verbunds zu erreichen, erwies sich als unvermutet schwierig.

Das GGC-Lab, das Teil des BMWi-Technologieprogramms IT2Green ist, legte von Anfang an besonderes Augenmerk auf Energieeffizienz und auf die Senkung von Energiekosten. Geplant war, dass die Vorgänge der Kommunen jeweils in dem Rechenzentrum verarbeitet werden, in dem es aus energetischen oder energiepreislichen Gründen gerade am günstigsten ist. Zu diesem Zweck etablierte das Konsortium bundesländerübergreifend eine Cloud-Infrastruktur durch einen Verbund von vier Rechenzentren, eine sogenannte Community Cloud.

Überkapazitäten abschalten

Wie Dr. Lutz Stobbe von der IT2Green-Begleitforschung am Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration IZM in seinem einleitenden Vortrag in Berlin erklärte, ging es zunächst darum, zu verstehen, wo der Stromverbrauch entsteht. Das bedeutete in vielen Fällen umfangreiche Messkampagnen.

Potenzial sieht der Green-IT-Fachmann besonders im Abbau von Rechnerüberkapazitäten. Das jedoch sei für viele Rechenzentren problematisch, in denen Verfügbarkeit, Sicherheit, Ausfallsicherheit oberste Ziele seien. Stobbe zeigte sich dennoch zuversichtlich: Es gebe durchaus Spielräume, und es sei wichtig, diese im Weiteren auszuloten. Dabei betonte er auch, dass künftige Optimierungen für öffentliche Verwaltungen sowie kleine und mittlere Unternehmen schwieriger zu realisieren seien als für Großunternehmen, die über weit mehr Möglichkeiten verfügen.

E-Government-Anwendungen in der Cloud

Bernhard Barz vom Konsortialpartner regio iT begann mit einem Rückblick auf die Ziele und Rahmen­bedingungen des Vorhabens. Um im GGC-Lab den Energie­verbrauch durch Verschiebung der Rechner­lasten zu senken, wurden einzelne Rechen­zentren zunächst detailliert ver­messen. Anschließend wurde eine Test­fachanwendung in den zusammen­geschlossenen Rechen­zentren betrieben und in Abhängigkeit verschiedener Parameter, wie z.B. der Auslastung, optimiert verschoben. Dabei bewertete das Team u.a. den Nutzen, den Energieverbrauch und die Einsatzbereitschaft in Kommunen. Hier erwies sich bereits früh als ernstes Problem, dass die meisten E-Goverment-Anwendungen einfach noch nicht Cloud-fähig sind.

Der Zusammenschluss von vier Rechenzentren zum virtuellen Cloud-Verbund sei zwar gelungen. Die dezentrale Betriebssteuerung mache die Materie indes komplex. Insgesamt wertete Barz solche Hindernisse als Ansporn zu weiteren Untersuchungen.

GGC-Lab-Vortrag Barz.png
Ziele, Ergebnisse und Erkenntnisse: die Präsentation von Bernhard R. Barz (Bild: GGC-Lab)

Geschäftsmodelle für die Kooperation

Im Anschluss referierte Stine Labes von der TU Berlin zum Thema Rollen, Interaktionen und Geschäftsmodelle. Ihr Fokus lag auf der Entwicklung attraktiver Geschäftsmodelle für IT-Dienstleister, die bei verteilten Cloud-Anwendungen einen Verbund bilden müssen. Labes nennt dies eine Form der „Community Cloud“. Sie brachte das Konzept der „Coopetition“ ins Spiel und zitierte eine Kernstelle von Barry J. Nalebuff und Adam M. Brandenburger: „Geschäft ist Zusammenarbeit, wenn es um das Backen des Kuchens geht; es ist Wettbewerb, wenn es um seine Aufteilung geht.“ Dazu Labes: „Bezogen auf das Projekt bedeutet das, dass wir auf der Werterstellungsseite eher kooperieren – aber weniger, wenn es darum geht, den Wert zu vertreiben.“ Kurz: Je kundenferner die Prozesse, desto positiver die Synergieeffekte.

Eine weitere Aufgabe bestand darin, zu definieren, was eine Community Cloud eigentlich sei. Hierzu gebe es unterschiedliche Meinungen und Konzepte. Einige IT-Dienstleister verstehen sie eher als anwenderbasierte Kooperation, andere sehen den Fokus eher auf der Anbieterseite. Im GGC-Lab sei es so, dass die Anbieter kooperieren, um durch eine intelligente Lastenverteilung Kosteneinsparungen zu erzielen.

GGC-Lab-Vortrag Labes.png
Rollen, Interaktionen und Geschäftsmodell: die Präsentation von Stine Labes (Bild: GGC-Lab)

Serie: Abschlussveranstaltung zum GGC-Lab
Teil 1 berichtet vom Vormittag des 11. November 2014, als die Konsortialpartner in Berlin ihre Projektresultate präsentierten. Teil 2 setzt auseinander, warum sich gerade das Vorhaben der Lastverteilung im Verbund als schwierig erwies, und bewertet den Nutzen der Gesamtergebnisse.

Ressourcencontroller und Anreizsystem

Konkret thematisierte die Diplom-Ingenieurin den Ressourcencontroller, das Kernstück des Projektes. Er setzt auf den verschiedenen Systemen auf, erfasst und aggregiert die Messdaten. Der Controller ist ein webbasiertes System, das die Monitoring-Daten der einzelnen Rechenzentren erfassen und Regelstrategien gewichten kann. Mit diesem Mittel war es möglich, Schwellenwerte einzugeben und zu definieren, wann das Netz ausgelastet sei. Der Ressourcencontroller bestimmte dann, an welchem Ort die Cloud-Anwendung aktuell am effizientesten laufen würde.

Aus Geschäftsmodellperspektive stand an diesem Punkt das zugehörige Anreizsystem für die Beteiligten am GGC-Lab im Mittelpunkt. Es besteht zum einen aus einer Provision für das Mitglied, das den Auftrag abgegeben hat (denn es verzichtet auf einen möglichen Gewinn). Ein weiterer Anteil wird auf die Teammitglieder verteilt, die sich an der Auftragsbearbeitung beteiligen. Ein weiterer Teil wird schließlich als Sockelfinanzierung an alle Mitglieder ausgeschüttet. Der Gedanke dahinter: Nicht jeder kann bei einer Auftragserteilung dabei sein und die Opportunitätskosten können auf diese Weise aufgefangen werden. Die Anreizwirkung und die Akzeptanz des Geschäftsmodells wurden in Workshops mit einem eigens entwickelten Brettspiel getestet. Ergebnis war eine positive Akzeptanz der Teilnehmer.

Netzaufbau zwischen den Rechenzentren

Über den technischen Aufbau des GGC-Labs berichtete dann Uwe Brünnicke vom Konsortial­partner Dataport AöR. Angestrebt war eine Zusammen­arbeit von unabhängigen Rechen­zentren „auf Augen­höhe“. Man habe dabei von vorne­herein auf ein dezentrales, nicht-hierarchisch aufgebautes System gesetzt. Dazu galt es aber zunächst, eine isoliert aufgebaute Labor­umgebung zu schaffen, ein umfangreiches Regel­werk zu definieren und ein Kommunikations­netz zwischen den einzelnen Rechen­zentren aufzubauen. Das Site-to-Site-VPN habe dabei sehr gut funktioniert, war allerdings langsam.

Zu den Vorgaben gehörte, dass die Testfachanwendung über den Browser bedient werden sollte. Das stellte sich jedoch als schwierig dar, weil solche Software im Verwaltungsumfeld noch dünn gesät ist. Letztendlich entschied man sich für die drei Cloud-fähigen Verfahren PTravel (Reisekostenabrechnung), Votemanager (Wahlen), VOIS (allgemeine Bürgerverwaltung). Insgesamt bestätigte Brünnicke den Befund, dass sich das Vorhaben als deutlich komplexer erwiesen habe als eingangs angenommen.

GGC-Lab-Vortrag Bruennicke.png
Technischer Aufbau Laborumgebung: die Präsentation von Uwe Brünnicke (Bild: GGC-Lab)

Mit welchen Schwierigkeiten die Messtechnik und das Lastmanagement zu kämpfen hatten, schildert Teil 2 dieser Serie, der außerdem einen Ausblick auf die weitere Entwicklung wagt.
KITK-Heilmayr.jpg

Eduard Heilmayr war acht Jahre lang Chefredakteur bei „Markt & Technik“, anschließend dort im Verlagsmanagement tätig. 1992 gründete er die AWi Aktuelles Wissen Verlagsgesellschaft mbH in München, die IT-Fachmagazine wie „LANline“, „Windows NT“, „Unix Open“, „Inside OS/2“ und „Electronic Embedded Systeme“ publizierte. Nach dem Verkauf des Verlags gründete er 2004 Delphin Consult. Neben meist mehrjährigen Projektarbeiten für renommierte Medienunternehmen wie Heise oder techconsult publiziert Heilmayr für rund 4000 Leser regelmäßig den redaktionellen Newsletter „Kommunale ITK“, der im MittelstandsWiki eine eigene Rubrik hat.

Nützliche Links