Nr. 114/2022

teriöse Fehler, wenn zum Beispiel Bilder Rauschanteile haben. Wir verstehen nicht, warum diese Fehler auftauchen, weil wir nicht wissen, was im Inneren des Algorith- mus passiert“, sagt Becker-Asano. Ein Stoppschild können Menschen auch dann noch erkennen, wenn das Bild stark verrauscht ist oder die Farben falsch sind. Künstliche Intelligenz kann aber schon von einem Aufkleber auf dem Schild oder anderen Wetter- und Licht-Verhältnissen als denen aus der Testumgebung verwirrt werden. „Wenn dann ein Fehler passiert ist, das Auto beispielsweise am Stoppschild nicht angehalten hat, weil die KI etwas falsch klassifiziert hat, dann könnte man rein theoretisch den Speicher der Maschine analysieren. Es existieren Massen an Daten auf dem Computer, davon macht man eine Momentaufnahme: einen Schnappschuss des neuronalen Netzes genau von dem Moment, in dem die Maschine den Feh- ler gemacht hat. Aber dann stellen wir fest, dass es sich nur um einen Haufen Daten handelt“, beschreibt Becker-Asano das Pro- blem. Auch einfach weitere Trainingsdaten hinzuzufügen, garantiere nicht, dass, was vorher funktionierte, dann immer noch funktioniert, unterstreicht Daniel Rück- ert: „Eben weil wir nicht genau wissen, was in der Blackbox vor sich geht.“ Die Blackbox transparent zu machen, wäre also für die Entwicklung von KI ein wichtiger Schritt, damit diejenigen, die KI anwenden, ihr auch vertrauen können, meint auch Tobias Matzner. Für ihn ist wichtig, dass Menschen klar ist, was mit ihren Daten passiert, wenn sie künstliche Intelli- genz nutzen. Und dass ihnen erklärt wird, wie ihre Daten algorithmische Entscheidungen beeinflussen können: › Künstliche Intelligenz hat ein großes Potenzial für unsere Gesellschaft, aber es ist an uns zu entscheiden, wie wir sie einsetzen. Aimee van Wynsberghe, Alexander von Humboldt-Professorin für KI an der Universität Bonn Die Inhalte dieses Beitrags und vieles mehr zum HÖREN IM KI-PODCAST der Alexander von Humboldt-Stiftung 19 HUMBOLDT KOSMOS 114/2022

RkJQdWJsaXNoZXIy NTMzMTY=