Allgegenwärtige Algorithmen
Künstliche Intelligenz und ihre Algorithmen stecken heute fast überall. Sie ändern die Flugpreise nach Nachfrage und Tageszeit. Auf Dating-Seiten prognostizieren sie uns die Kompatibilität mit potentiellen Partnern. Und selbst die Polizei versucht, mit Software Vorhersagen zur Kriminalität zu erstellen. Die Computer-Programme aber, die solche Prognosen berechnen, werden selten genau kontrolliert. So erkennen die Algorithmen Gesichter oder Körperteile von weißen Menschen oft besser.
Maschinen diskriminieren Nicht-Weiße
Aus den USA ist bekannt, dass die Prognose-Software die Polizei überdurchschnittlich häufig in Vierteln mit mehrheitlich schwarzer Bevölkerung Streife fahren lässt. Damit reproduzieren die Maschinen rassistische Klischees.
Da wird Korrelation mit Kausalität verwechselt. Je mehr ich da festnehme, desto mehr sagt mir der Algorithmus: ‚Dieses Viertel ist gefährlich.‘ Aber vielleicht nicht, weil da die Schwarzen leben, sondern weil die Polizei da häufiger unterwegs ist. – Varinia Bernau, Wirtschaftswoche
Bundesjustizminister Heiko Maas hat kürzlich ein digitales Anti-Diskriminierungsgesetz gefordert. Diese Legislaturperiode wird es aber definitiv nicht mehr kommen.
Wo diskriminieren Algorithmen? Liegt das an den Einstellungen der Programmierer oder an anderen Faktoren? Und was kann man dagegen tun? Über voreingenommene künstliche Intelligenz hat detektor.fm-Moderator Christian Erll mit Varinia Bernau von der Wirtschaftswoche gesprochen.