Explainable AI
Künstliche In­tel­li­genz muss Re­chen­schaft ab­legen können

© AI HLEG – Europäische Kommission

Anfang April hat die EU-Kom­mis­sion die über­arbeiteten „Ethik-Richt­linien für ver­trau­ens­würdige KI“ ver­öffent­licht. Darin sehen die Ex­perten u.a. ein Min­dest­maß an Trans­parenz vor: Der Mensch sollte z.B. wissen, wie KI-Ent­schei­dungen zu­stan­de ge­kom­men sind. Das wird schwierig.

Denn fortgeschrittene künstliche Intelligenz, speziell künstliche neuronale Netze, finden ihre Lösungswege von selbst und bleiben für den Menschen eine Black Box: Wir kennen den Input, wir erfahren den Output, wissen aber nicht genau, was im Inneren vorgeht. Wie also können wir „über die Möglichkeiten und Grenzen des Systems informiert sein“, wie sollen gar „die KI-Systeme und ihre Entscheidungen in einer Weise erläutert werden, die an die jeweiligen Interessengruppen angepasst ist“? Das KI-Programm „Deep Patient“ am Mount-Sinai-Krankenhaus in New York zum Beispiel kann zwar auf Basis der elektronischen Patientenakten Krankheiten erstaunlich gut vorhersagen, aber niemand weiß wirklich, wie das künstliche neuronale Netz zu seinen Befunden gelangt. Jüngste Untersuchungen haben obendrein deutlich gemacht, dass es in der Black Box oft kurios zugeht. Machine Vision lässt sich systematisch täuschen, und die Frage, ob ein Zimmer Vorhänge hat, beantwortet KI zum Beispiel nicht mit einem Blick ans Fenster, sondern danach, ob ein Bett im Raum steht.

Der Schlüsselbegriff ist „Erklärbarkeit“. Tatsächlich schreibt bereits die DSGVO in persönlichen Angelegenheiten ein Recht fest, „keiner Entscheidung […] unterworfen zu werden, die ausschließlich auf einer automatisierten Verarbeitung beruht“ (Erwägungsgrund 71). Es gibt daher eine Reihe von Ansätzen für Explainable Artificial Intelligence (XAI). Im einfachsten Fall lässt sich durch geringe Veränderungen am Input beobachten, ob und wie das KI-System darauf reagiert, andere Wege arbeiten auf eine KI hin, die selbst über ihre Systemzustände Auskunft geben kann, wieder andere Szenarien setzen gar KI auf die KI-Kontrolle an. Auf diesem Gebiet dürfte sich noch einiges tun, wenn sich KI etablieren soll. Die Fachleute der EU sehen mit Recht, dass Erklärbarkeit „crucial for building and maintaining users’ trust in AI systems“ ist, dass sie also eine zentrale Rolle spielt, wenn einzelne Anwender und die Gesellschaft insgesamt solchen Systemen vertrauen sollen.

Die aktuellen „Ethics guidelines for trustworthy AI“ gibt es bei der EU-Kommission als PDF zum Herunterladen. Die wesentlichen Punkte zum Thema Transparency/Explainability finden sich im Abschnitt II.1.4., eine Checkliste für Hersteller gibt es auf S. 28 f.