Künstliche Intelligenz: Vertrauen in KI entsteht durch Gewohnheit

Unter dem Titel „Think beyond tomorrow“ ist vor Kurzem eine Studie erschienen, die sich der künftigen Interaktion von Mensch und Maschine, von natürlicher und künstlicher Intelligenz widmet.

Die Gemeinschaftsarbeit der Projektgruppe Wirtschaftsinformatik am Fraunhofer-Institut für Angewandte Informationstechnik FIT und der Beratungsgesellschaft Ernst & Young unterscheidet fünf Interaktionstypen (KI als Schutzengel, Heinzelmännchen, Informant, Kollege oder bester Freund), die sich in drei Gruppen sortieren lassen (KI als Automat, als vielfältiger Helfer oder als Partner). Die Autoren interessieren sich vor allem dafür, wann Menschen die Kollaboration mit KI akzeptieren, und skizzieren auch, wie Human-KI-Interaktionen in Zukunft aussehen könnten. Dazu gibt es zehn Thesen, etwa zur Entstehung von „hybrider Intelligenz“ oder zum Handlungs- und Entscheidungsspielraum von KI.

Etwas überraschend erscheint zunächst These 8: dass menschenähnliches Aussehen halb so wichtig ist.

„Das Erscheinungsbild von KI muss sich (äußerlich und funktional) immer weniger am menschlichen ‚Vorbild‘ orientieren.“

Anthropomorphe Eigenschaften seien gegenwärtig zwar dazu geeignet, Akzeptanz und Vertrauen in die Technologie zu stärken, doch das soll sich in Zukunft geben. Durch „steigendes KI-Bewusstsein und die Omnipräsenz von KI-Systemen“ gewöhne man sich an abstrakte Interaktionspartner. Das Beispiel aus der Pflege, zeigt außerdem, dass es durchaus Situationen gibt, in denen wir uns vor allzu menschenähnlichen Systemen eher genieren.

Daran schließt unmittelbar die Logik von These 9 an: dass Vertrauen in KI-Lösungen „durch wiederholte positive Ergebnisse und/oder durch den Aufbau einer sozialen Bindung geschaffen werden“ muss. Das klingt vernünftig, lässt aber auf den zweiten Blick ein wichtiges Stichwort vermissen: Transparenz. Derzeit erwarten wir von künstlicher Intelligenz, dass sie ihre Entscheidungen nachvollziehbar macht, bevor wir uns ihr anvertrauen. Dazu könnte Explainable KI (XAI) viel beitragen (S. 26). Doch auch das soll sich der Studie zufolge ändern. Der Tenor: KI ist sowieso zu schwierig und nicht zu verstehen, Vertrauen muss daher anders entstehen:

„Die steigende Komplexität verhindert es immer mehr, das Verständnis einer Lösung technologisch zu gewährleisten. Daher fließen qualitative Kriterien wie etwa Empathie und emotionale Kompetenzen stärker in die Bewertung mit ein.“

Das Stichwort „Transparenz“ fällt dann bei These 10 (Ethik und Moral), allerdings bleiben die Autoren hier merkwürdig nebulös:

„Neben geeigneten Lernverfahren müssen zukünftig aber auch die Vergleichbarkeit und die Transparenz von Mensch-KI-Interaktionen über verschiedene Nutzer hinweg Berücksichtigung finden und die Hürden bei Haftungsfragen im Falle des Versagens von KI überwunden werden.“

Was der letzte Halbsatz bedeuten soll, möchte man lieber gar nicht wissen. Dass sich unsere Ethik- und Moralvorstellungen irgendwie ständig wandeln, von vielerlei abhängig sind und sich je nach Individuum unterscheiden – dergleichen könnte auch aus der Stundendiskussion einer 7. Realschulklasse stammen. Schade, dass die Studie an dieser Stelle nicht beherzter Stellung bezogen hat – das analytische Instrumentarium dazu bringt sie ja mit. Tatsächlich stehen die wichtigeren ethischen Argumentationen – wenn auch wieder unter dem Aspekt der Akzeptanz – im praktischen Kapitel 5 (Handlungsfelder und Implikationen für die Mensch-KI-Interaktion in Unternehmen), und zwar beim Handlungsfeld Technologie (S. 43f.):

„In diesem Zusammenhang sollten Nutzer zudem über diese unbewusste Interaktion mit KI informiert werden und sie sollten frei entscheiden können, ob sie auf eine bestimmte Weise mit der KI interagieren möchten oder nicht.“

Die Fraunhofer-EY-Studie gibt es beim Fraunhofer FIT komplett frei als PDF zum Herunterladen.