Open Data Portal Berlin

Die Hauptstadt öffnet ihre Datenbestände

Von Eduard Heilmayr

Das Berliner Open Data Portal wird von Experten als die führende Anwendung in Deutschland eingeschätzt. 2010 gestartet, verzeichnet es mittlerweile bis zu 20.000 Zugriffe pro Monat. Dabei kam die Idee zunächst von außen: Vor ca. zwei Jahren sprachen Mitarbeiter des Fraunhofer Institut für Offene Kommunikationssysteme FOKUS die Berliner Senatsverwaltung an. Die Fragestellung war, ob man auf Basis moderner Internet-Technologien mit Daten der öffentlichen Hand der Zielsetzung nach einer effizienteren und transparenteren öffentlichen Verwaltung näher kommen könnte.

Dr. Wolfgang Both ist in der Berliner Senatsverwaltung für Wirtschaft, Technologie und Forschung zuständig für Medien-, Informations- und Kreativwirtschaft. Er und seine Kolleginnen und Kollegen erweiterten den Ansatz des FhG-Instituts. Sie erkannten zusätzliches wirtschaftliches Potenzial in der Bereitstellung öffentlicher Daten. Both: „Das ist für uns als Wirtschaftsbehörde der Anstoß gewesen.“

Schnell war eine ressortübergreifende Projektgruppe gebildet mit weiteren Mitgliedern aus der amtlichen Statistik, der Innenverwaltung und dem Büro des regierenden Bürgermeisters. Arbeitsgrundlage war ein entsprechender Beschluss auf politischer Ebene.

Anfang mit Fachportalen

2010 wurde noch eine Online-Umfrage durchgeführt. Insgesamt beteiligten sich 1600 Interessenten, für Both erstaunlich viele. Sie konnten auf der Webseite darüber abstimmen, welche Themen für sie wichtig sind. Zwanzig gab man zur Auswahl vor: Stadtplanung, Umweltdaten, Ergebnisse von Hygienekontrollen sind Beispiele. „Stadtentwicklung, Umwelt und Preiskontrollen standen ganz oben im Bürgerinteresse“, berichtet Both. Die Umfrageergebnisse wurden veröffentlicht. Sie stellten eine wichtige, erste Arbeitsbasis dar.

Dr Wolfgang Both.jpg
Kreativ, kenntnis­reich, verbind­lich, durch­setzungs­stark: Dr. Wolf­gang Both ist der Macher des erfolg­reichen Open Data Portals Berlin.

Im Jahr 2011 begann das Projekt. Finanziert und gefördert wurde es im Rahmen des Verwaltungsmodernisierungsprogramms ServiceStadt Berlin. „Wir sind vorsichtig gestartet. Es gab keine Blaupause für unser Vorhaben“, berichtet Both von den Anfängen. Es gab lediglich Austausch mit anderen Städten, beispielsweise mit Wien, die begannen, sich ebenfalls mit dem Thema zu beschäftigten.

Man fing mit öffentlichen Daten an, die bereits im Netz veröffentlicht waren oder entsprechende Voraussetzungen mitbrachten. Both nennt als Beispiele: Geodaten, Daten der amtlichen Statistik, Sozialdaten, Umweltdaten. So sei im Umweltinformationsgesetz festgelegt, dass Daten zur Umwelt nicht nur zu sammeln, sondern ebenso zu veröffentlichen sind. Allerdings, so Both, seien dort weder Datenformate noch Publikationsverfahren festgelegt.

Aber immerhin gab es Erfahrungen in den Fachportalen, „und auf diese wollten wir aufsetzen“. Both weiter: „Unsere Zielsetzung war es, einen breiteren Ansatz zu schaffen und in einem Portal Geodaten, Sozialdaten, Umweltdaten usw. über einen einheitlichen Zugang anzubieten.“

Aufteilung in drei Projektpakete

Um dies zu erreichen, wurde die Aufgabenstellung in drei Arbeitspakete gegliedert:

  • die technische Konzeption der Daten,
  • die Architektur des Portals und
  • das rechtliche Umfeld (auf welchen gesetzlichen Grundlagen Daten gesammelt und veröffentlicht werden).

Wie komplex allein das dritte Arbeitspaket „rechtliches Umfeld“ sein kann, belegt Both exemplarisch: „Die amtliche Statistik hat um die 300 Gesetze, auf deren Grundlage Daten und Auswertungen erarbeitet und der Öffentlichkeit wieder zur Verfügung gestellt werden. Das Umweltinformationsgesetz und andere Fachgebiete sind ähnlich umfangreich. Das ist eine echte Herausforderung, diese Vorgaben zu harmonisieren. Letztlich wird das nur auf Bundesebene gelöst werden können.“

Auf der technischen Seite liegen die Herausforderungen insbesondere bei den historisch gewachsenen Strukturen der unterschiedlichen Datenbestände. So gelte es, weit fortgeschrittene Harmonisierungsprojekte, wie bei den Geodaten, mit anderen Fachgebieten zusammenzuführen. Datenkonverter sind zu entwickeln, Metadatensätze abzugleichen, Attribute festzulegen und die notwendigen Aufbereitungs- und Verarbeitungsprozesse zu definieren.

Klar ist für Both jedoch eines: „Die einzelnen Fachportale werden ohne Frage weiter bestehen. Nur dort können die Daten gepflegt und bearbeitet werden.“

Daten in der Wertschöpfungskette

Gleichzeitig mit der Bearbeitung der Aufgabenpakete Anfang 2011 wurde eine begleitende Studie an das Fraunhofer-Institut FOKUS in Auftrag gegeben, die dann Ende 2011 erschien.

Noch im selben Jahr konnte das Berliner Open Data Portal mit einem ersten Prototyp an die Öffentlichkeit gehen – früher als geplant: Es war im September 2011, als es mit den Berliner Wahlergebnissen, geliefert von der amtlichen Statistik, online ging. „Schon eine Woche später gab es die erste Wahl-App dazu“, erinnert sich Both. Diese verknüpfte die Wahlergebnisse mit regionalen, demografischen Bevölkerungsdaten; die App lieferte auch Zusammenhänge und Darstellungen.

Weitere Anwendungen folgten, zunächst auf Basis von Projekten, „deren Mitarbeiter freiwillig mitgearbeitet haben.“ Both weiter: „Wir haben zwar noch nicht verfolgt, ob die Entwickler damit schon Geld verdienten, aber es zeigte sich klar die Wertschöpfungskette“, zeigt sich Both überzeugt, „angefangen von der Öffnung der Datenbestände, über die Bereitstellung in einem Datenportal in einem einheitlichen, maschinenlesbaren Format, ausgestattet mit freien Lizenzen, bis hin also zur offenen Nutzbarkeit durch Entwickler, die daraus mobile Applikationen erstellen, die dann von Endkunden benutzt werden – das funktioniert!“

Zugriffe und Direktverweise

Die Idee, dass hinter Open Data wirtschaftliches Potenzial steckt, ist für Both klar belegt. Zwar noch nicht in zahllosen Beispielen, aber immerhin: Verkehrsdaten, Reiseführer und vieles mehr werden zunehmend mit Daten der öffentlichen Hand ergänzt, weiß Both.

Mittlerweile verzeichnet das Berliner Daten-Portal bis zu tausend Zugriffe an Wochentagen. Die Zugriffe sind stark abhängig von Themen. Zeitlich gebundene Ereignisse wie Wahlen oder Weihnachtsmärkte können die Zugriffszahlen um mehrere Tausend pro Tag erhöhen. Andere Daten, wie die Wasserqualität der Seen und Bäder oder Öffnungszeiten werden regelmäßig abgerufen. Durchschnittlich komme man so auf ca. 20.000 Zugriffe im Monat. Überwiegend werden Daten abgefragt, die das Leben in Berlin für Einwohner und Touristen leichter machen.

Both bewertet die Zugriffszahlen auch deshalb als „für mich erstaunlich hoch“, weil die Datenbereitstellung lediglich in maschinenlesbaren Formaten (csv, rtf, txt, Jason etc.) erfolgt und bisher keine visuelle Aufbereitung auf dem Portal beinhaltet. Eine Verschiebung der Nutzerzugriffe, sagt Both, sei innerhalb eines Jahres deutlich feststellbar: In den Anfangsmonaten sei der Einstieg zum größeren Teil über die Startseite des Portals erfolgt. Heute erfolge der Zugriff mehr direkt auf die Datensätze. Dies erkläre sich aus den gestiegen Anfragen durch Suchmaschinen. Both erklärt: „Da gibt beispielsweise ein Benutzer in eine Suchmaschine ein: ,Badesee Berlin Temperatur‘.“ Der Zugriff der Suchmaschine erfolge dann direkt auf die entsprechenden Datensätze.

Auf dem Weg zur Veröffentlichungspflicht

Der Weg dorthin war und ist beschwerlich, nicht nur aus technischen Gründen. Schwierigkeiten liegen ebenso in der Verwaltungskultur. Unsicherheit herrscht unter Verwaltungsmitarbeitern und Beamten: Kann ich diese Daten überhaupt freigeben? Auf welcher Rechtsgrundlage handle ich? Wie hoch ist der zusätzliche Arbeitsaufwand? Kann ich höhere Nachfragen bewältigen? Ist das überhaupt politisch gewollt?

Das politische Bekenntnis zu E-Government und Open Data sei deshalb sehr wichtig. Es löst Blockaden und überwindet Barrieren. „Trotzdem heißt es nicht, dass jeder Verwaltungsmitarbeiter auch die notwendigen Fähigkeiten hat, Daten aufzubereiten und zur Verfügung zu stellen“, weiß Both. „In der Qualifikation der Verwaltungsmitarbeiter, der Anpassung der Verwaltungsprozesse, in der Schulung an den dafür notwendigen Werkzeugen – kurz gesagt: in der Begleitung der Mitarbeiter von der geschlossenen Aktenführung hin zu einer offenen Verwaltung liegt die dritte große Herausforderung.“

Mit den Berliner Wahlen im September 2011 nahmen alle großen Parteien die Themen E-Government und Open Data in ihre Programme auf. „In Berlin steht es“, so berichtet Both, „im Koalitionspapier und ist in die Richtlinie der Regierungspolitik mit aufgenommen.“

In Berlin gibt es derzeit Überlegungen, in einem sogenannten E-Government- und Organisationsgesetz die allgemeine Veröffentlichungspflicht der Datenbestände festzuschreiben. Es soll das Informationsfreiheitsgesetz erweitern. Dort werde zwar das Recht auf Informationsabfrage festgeschrieben, aber nicht unbedingt für die Verwaltung die Pflicht zur Informationsveröffentlichung. Es soll also ein Rechtsraum geschaffen werden, der alle Informationen der Öffentlichkeit zur Verfügung stellt, die nicht „geschlossen“ sind (wie z.B. ein Melderegister). Dieses Gesetz hätte auch bei der Beschaffung eine wichtige praktische Wirkung. Bei Ausschreibungen zum Kauf von IT-Lösungen und kommunalen Fachverfahren müsste die zukünftige Öffnung der Datenbestände zwingend mit einbezogen werden.

Fazit: Erfahrung aus erster Hand

„Das Berliner Modell“, so sieht es Both, „kann eine Blaupause für andere Länder und Kommunen sein.“ Aber Both ist sich sicher: „Insellösungen sind nicht zielführend.“ Deshalb arbeite man auch in Länderarbeitsgruppen mit und beteilige sich am IT-Planungsrat des Bundes. In die aktuelle Fraunhofer-FOKUS-Studie („Open Government Data Deutschland“) im Auftrag des Bundesministeriums des Innern, im Juli 2012 veröffentlicht, sind die Berliner Erfahrungen eingeflossen.

Und Both stellt seine Erfahrungen auch gerne direkt zur Verfügung. Am 18. Oktober 2012 z.B. hielt er auf der IT-Fachkonferenz 2012 der Kommunen in Nürnberg einen Impulsvortrag im Rahmen eines Open Data Workshops und stand als Moderator für interessierte Kolleginnen und Kollegen Rede und Antwort.

KITK-Heilmayr.jpg

Eduard Heilmayr war acht Jahre lang Chefredakteur bei „Markt & Technik“, anschließend dort im Verlagsmanagement tätig. 1992 gründete er die AWi Aktuelles Wissen Verlagsgesellschaft mbH in München, die IT-Fachmagazine wie „LANline“, „Windows NT“, „Unix Open“, „Inside OS/2“ und „Electronic Embedded Systeme“ publizierte. Nach dem Verkauf des Verlags gründete er 2004 Delphin Consult. Neben meist mehrjährigen Projektarbeiten für renommierte Medienunternehmen wie Heise oder techconsult publiziert Heilmayr für rund 4000 Leser regelmäßig den redaktionellen Newsletter „Kommunale ITK“, der im MittelstandsWiki eine eigene Rubrik hat.

Nützliche Links