Artificial Intelligence: Google setzt künst­liche Intelli­genz auf Terror­videos an

Google will für seine Video­plattform You­Tube ein System künst­licher In­tel­li­genz ent­wickeln, das ter­roristi­sche Inhalte auto­matisch ent­deckt und Ex­perten vor­legt: In einem Beitrag für die Financial Times hat Kent Walker, der Chef­jurist von Google, am Wochen­ende ange­kündigt, den Kampf gegen Terror­propaganda zu verstärken. Der Konzern will dazu KI-Systeme entwickeln, die in der Lage sind, Videos mit terroristischen Inhalten selbst­tätig zu identi­fizieren und zu markieren.

Google will seine modernste Technik bei selbstlernenden Maschinen dafür einsetzen und zugleich die Zahl der Entwickler für diese Systeme erhöhen. Die markierten Filme sollen dann von Experten begutachtet und gegebenenfalls gelöscht werden. Auch die Zahl dieser Experten soll erhöht werden. Google nennt sie „Trusted Flagger“ und versteht darunter Personen und Organisationen, denen das Unternehmen bei der Beurteilung von anstößigen oder rechtswidrigen Inhalten vertraut. In Deutschland sind das beispielsweise jugendschutz.net, das gemeinsame Kompetenzzentrum von Bund und Ländern für den Jugendschutz im Internet, sowie die FSM (Freiwillige Selbstkontrolle Multimedia-Diensteanbieter).

Auch Facebook hatte vor einigen Tagen angekündigt, verstärkt mit KI-Software zu arbeiten, um etwa das erneute Hochladen bereits gelöschter terroristischer Bilder zu verhindern und Texte mit terroristischem Inhalt zu identifizieren.