Nr. 114/2022

„Nehmen Sie an, Sie bewerben sich irgendwo. Ein Algo- rithmus sortiert Ihre Bewerbung aus. Dann interessiert Sie eigentlich gar nicht, wie der Algorithmus funktioniert, sondern Sie fragen sich: Was hätte denn an mir anders sein müssen, um genommen zu werden?“ KI LERNT, WIE MAN ANDERE DISKRIMINIERT Das Beispiel ist nicht aus der Luft gegriffen. In einem großen globalen Unternehmen wurde tatsächlich eine KI entwickelt, die bei der Auswahl von Bewerber*innen helfen sollte. Die Humboldt-Professorin Aimee van Wynsberghe von der Universität Bonn beschreibt einen Fall von Diskriminierung durch KI. „Zur Modellierung des Rekrutierungstools wurden Daten aus den letzten 10 Jahren benutzt. Als die Verantwortlichen dann die Lebensläufe durchgegangen sind, um Kandidaten für die Stellen auszusuchen, stellten sie fest, dass die Maschine für Leitungsfunktionen durchweg immer nur Männer vorschlug, aber nie Frauen.“ Die Erklärung: Bestehende Ungleichheiten hatten sich in den Trainingsdaten nieder- geschlagen, aus denen die KI sie dann übernommen hat. Aimee van Wynsberghe schlägt vor, aus diesemNachteil der KI Nutzen zu ziehen: „Wenn man dieses Rekrutie- rungstool aber nun benutzt, um Benachteiligung in der Unternehmenskultur zu untersuchen, anstatt als Grund- lage dafür, neue Arbeitskräfte zu rekrutieren, dann ist es ein faszinierendes Werkzeug. Dann bringt die Technik Formen der Ungleichheit ans Licht. Und dann haben wir die Wahl: Machen wir mit diesem System der Ungleich- heit weiter oder setzen wir ihm ein Ende und verändern etwas? Künstliche Intelligenz hat ein großes Potenzial für unsere Gesellschaft, aber es ist an uns zu entscheiden, wie wir sie einsetzen.“ Der Riesenvorteil von KI-Modellen in der medizinischen Bildgebung ist, dass sie dir immer eine Antwort geben, egal wie viele Bilder man ihnen vorsetzt. Daniel Rückert, Alexander von Humboldt-Professor für KI an der Technischen Universität München SCHWERPUNKT 20 HUMBOLDT KOSMOS 114/2022

RkJQdWJsaXNoZXIy NTMzMTY=