Unterschied zwischen den Versionen

Aus MittelstandsWiki
Wechseln zu: Navigation, Suche
 
Zeile 38: Zeile 38:
 
* [[Gastbeitrag: Innovation im Rechenzentrum|Innovation im Rechenzentrum]]
 
* [[Gastbeitrag: Innovation im Rechenzentrum|Innovation im Rechenzentrum]]
 
* [[E-Government:IT2Green-Jahrestagung 2013, Teil 1|IT2Green-Jahrestagung 2013]]
 
* [[E-Government:IT2Green-Jahrestagung 2013, Teil 1|IT2Green-Jahrestagung 2013]]
* [[Microsoft-Cloud in Frankfurt und Magdeburg]]
+
* [[E-Government:RZ-Netzdesign|RZ-Netzdesign]]

Aktuelle Version vom 25. Juli 2019, 11:59 Uhr

Das GGC-Lab testet Verwaltungswolken

L. Atzberger

Von Sabine Philipp

In Zeiten knapper Kassen und zunehmender Digitalisierung können Kommunen ganz besonders von Cloud Computing profitieren. Das bedeutet auch, dass sich die kommunalen Rechenzentren darauf einstellen müssen und im besten Fall im Verbund arbeiten. Wie das funktionieren könnte, ist momentan Forschungsgegenstand am Government GreenCloud Laboratory (GGC-Lab) in Berlin. Dort arbeitet man an Geschäftsmodellen für öffentlich-rechtliche IT-Dienstleister, die die Auslastung ihrer Rechenzentren optimieren möchten. Das Ziel für Kommunen besteht darin, gemeinsam eine Cloud zu betreiben und von den Einsparungen gleich doppelt zu profitieren.

Für Cloud-Anwender ist die Vorteilsrechnung klar: Investitionen in Hardware entfallen, weil die Rechenprozesse auf entfernten Servern laufen. Ebenso sinkt der Administrationsaufwand, da der Cloud-Anbieter Server, Anwendungen und alle damit verbundenen Prozesse wie Backups oder Datensicherheit zentral wartet. Auch in puncto Fachverfahren bleiben die Kommunen immer auf dem neuesten Stand, da sie die Anwendungen nicht mehr kaufen müssen, sondern mieten können. Schnellere Prozesse und eine Ausweitung des Angebots für Bürger durch neue, nun günstigere Services sind ebenso praktische Nebeneffekte wie die Reduktion der Stromkosten. Denn vor Ort kommen letztlich nurmehr energiesparendere Terminals zum Einsatz.

Auf Cloud-Anbieterseite hat sich das Government Green Cloud Laboratory (GGC-Lab), ein Projekt des BWMi- Technologieprogramms IT2Green, des Problems angenommen. Ein Ziel ist die Entwicklung energieeffizienter Lösungen von IT-Rechenleistungen in der öffentlichen Verwaltung unter Zuhilfenahme von Cloud Computing. Das Konsortium, zu dem u.a. die TU Berlin gehört, hat dazu bundesländerübergreifend mit vier Produktivrechenzentren eine Cloud-Lösung nebst darunterliegender Infrastruktur implementiert. Die Wissenschaftler, zu deren Kreis Stine Labes gehört, möchten damit praktische Erfahrungen sammeln und u.a. konkret herausfinden, welche Probleme auftreten könnten und worin die Herausforderungen in der Praxis bestehen. Das Projekt läuft Ende November 2014 aus.

Lastverteilung und Energieeffizienz

„Besonders stark schlagen die Energiekosten für Server und Kühlanlagen aufs Budget“, erklärt Stine Labes. „Deshalb ist es ein Kernziel, innerhalb des Verbunds Aufgaben jeweils in das Rechenzentrum zu verschieben, in dem Datenverarbeitung gerade am energieeffizientesten ist“. Dabei haben Frau Labes und ihre Kollegen neben dem Strompreis vor Ort auch Zugriff auf viele Messdaten und u.a. die Temperaturen im Auge. Wenn es in München bei Föhnwetter 23 ˚C warm wird, in Bremen aber nur 12 ˚C, werden die Daten gen Norden geschickt, wo die Serverkühlung weniger Strom verbraucht.

Stine Labes.jpg
Dipl.-Ing. Stine Labes ist wissenschaftliche Mitarbeiterin und Doktorandin am IKM-Lehrstuhl der TU Berlin. Ihr Forschungsfeld und ihr Promotionsthema bewegen sich im Bereich von Cloud Computing und Geschäftsmodellierung. Parallel zur Doktorarbeit arbeitet sie im BMWi-Projekt Government Green Cloud Laboratory (GGC-Lab). Sie beschäftigt sich besonders mit den wirtschaftlichen Rahmenbedingungen eines Cloud-Verbunds. Dazu werden Anforderungen, Aufbau und Prozesse, Rollenkonzepte und die rechtlichen Rahmenbedingungen sowie die Wertschöpfung in der Cloud analysiert.

Am Bedarf selbst lässt sich dagegen auf Anhieb wenig ändern. Die Lastkurven in den verschiedenen Rechenzentren sind einander sehr ähnlich und unvorhersehbare Spitzen eher selten. Das liegt daran, dass die Arbeitszeiten bundesweit in etwa gleich sind und dass es kaum Zeitunterschiede gibt. Andererseits sind die Verwaltungsvorgänge jedes Jahr sehr ähnlich und können vorgeplant werden. „Wenn man die Werte aus der Vergangenheit betrachtet und sie durch vorhersehbare, durch die Kommunen gemeldete Lastgänge ergänzt, kann man eine ganz gute Vorausplanung erstellen“, erklärt Frau Labes. Aufseiten der Rechenzentren könnte man daraufhin gleichzeitig die Investitionen in neue IT optimal planen und zusätzlich Kosten sparen.

Standards, Hardware und Know-how

Der Ansatz erscheint plausibel. Der Weg in eine solche Verbund-Cloud ist jedoch schwierig. Eines der Hauptprobleme im Öffentlichen Sektor ist der Mangel an standardisierten Schnittstellen und Verfahren. Hinzu kommen rechtliche Regelungen, die die Arbeit erschweren, allen voran der strenge Datenschutz. „Hört man Ausführungen von Rechtsexperten, dürfen die Daten verschiedener Hoheitsgebiete, die die gleiche Anwendung verwenden, nicht auf demselben physischen Server verarbeitet werden“, sagt die Expertin dazu. Mandantenfähige Lösungen, wie sie in der Privatwirtschaft schon längst gang und gäbe sind, zählen hier also nicht.

Ein weiteres Problem liegt auf der handfesten Seite der Technik: „Die Hardware in den Kommunen muss modern genug sein, um z.B. mehrere An- und Ausschaltvorgänge zu ,überstehen‘, was in Zeiten knapper Kassen nicht selbstverständlich ist“, betont Frau Labes. „Cloud Computing ist in diesem Bereich neu, sodass das Know-how für den Aufbau und die komplexe Konfiguration einer kompletten, funktionierenden, mandantenfähigen Virtualisierungsumgebung meist fehlt. Es muss erst aufgebaut oder eingekauft werden.“

Geschäftsmodell mit Hindernissen

Selbst die Rechtsform, die sich die IT-Dienstleister geben, kann Probleme aufwerfen. „Die Konstellation Genossenschaften und privatrechtliche Nutzer kann kritisch sein, da die Bedienung dieser Nutzergruppen bei der Genossenschaft nicht vorgesehen ist“, erklärt Stine Labes. Und bei einer wirklich umfassenden Implementierung, wird die pure Größe zum Problem: „Wenn sich viele IT-Dienstleister zusammentun und eine marktbeherrschende Stellung einnehmen, müssen sie Anforderungen des Kartellrechts beachten. Es sei denn, innerhalb der Community wird der Wettbewerb gefördert. Beim GGC-Geschäftsmodell könnte das so aussehen, dass jedes Rechenzentrum im Verbund versucht, so gut wie möglich zu sein, um intern den Job der Lastenverarbeitung zu erhalten.“

Fazit: Auf der Suche nach Lösungen

Die Fachwissenschaftlerin ist dennoch zuversichtlich, dass sich diese und andere Probleme über kurz oder lang lösen lassen. Ihrer Überzeugung nach geht der Trend klar Richtung Cloud, auch wenn man auf neue rechtliche Rahmenbedingungen warten müsse, um das volle Potenzial der Energieeinsparungen ausschöpfen zu können. Das ideale Geschäftsmodell wird im GGC-Lab getestet, behält aber in der aktuellen Umsetzung vorerst den Projektcharakter.

Für das Problem der optimalen Lastverteilung auf die Server anderer Betreiber sieht Frau Labes indes bereits jetzt eine Lösung, wenn auch nur für einen kleinen Teil der Rechenzentren. „Möglich wäre der Einsatz für einen IT-Dienstleister mit mehreren Standorten, der damit eine geschlossene rechtliche Instanz ist.“

Nützliche Links

Kostenfreier Download im MittelstandsWiki

Eine zentrales Informations­kompendium, zu dem auch Stine Labes wesent­lich bei­getragen hat, ist im Heise Zeit­schriften Verlag in Ko­operation mit dem GCC-Lab erschienen: „Rechen­zentren und Cloud Computing. Ein aktuelles Hand­buch für die Öffent­liche Ver­waltung“. Das Prä­sentations­material zu ihrem Vortrag „Kosten sparen mit der Cloud. Community Clouds in der Öffent­lichen Verwaltung“, den sie auf dem IT-Talk der Kommunen zur Kommunale 2013 hielt, gibt es im Mittelstands­Wiki kostenfrei zum Herunterladen. Weitere Themen­darstellungen der Expertin findet man bei der TU Berlin als kostenfreie PDFs zum Download.