Was wichtig wird | Haben Algorithmen Vorurteile?

Das Klischee in der Software

Algorithmen nehmen dem Menschen Entscheidungen ab. Aber die Maschinen sind nicht neutral. Wo sie sogar rassistisch oder sexistisch sein können, erklärt Varinia Bernau von der Wirtschaftswoche.

Allgegenwärtige Algorithmen

Künstliche Intelligenz und ihre Algorithmen stecken heute fast überall. Sie ändern die Flugpreise nach Nachfrage und Tageszeit. Auf Dating-Seiten prognostizieren sie uns die Kompatibilität mit potentiellen Partnern. Und selbst die Polizei versucht, mit Software Vorhersagen zur Kriminalität zu erstellen. Die Computer-Programme aber, die solche Prognosen berechnen, werden selten genau kontrolliert. So erkennen die Algorithmen Gesichter oder Körperteile von weißen Menschen oft besser.

Maschinen diskriminieren Nicht-Weiße

Aus den USA ist bekannt, dass die Prognose-Software die Polizei überdurchschnittlich häufig in Vierteln mit mehrheitlich schwarzer Bevölkerung Streife fahren lässt. Damit reproduzieren die Maschinen rassistische Klischees.

Da wird Korrelation mit Kausalität verwechselt. Je mehr ich da festnehme, desto mehr sagt mir der Algorithmus: ‚Dieses Viertel ist gefährlich.‘ Aber vielleicht nicht, weil da die Schwarzen leben, sondern weil die Polizei da häufiger unterwegs ist. – Varinia Bernau, Wirtschaftswoche

Bundesjustizminister Heiko Maas hat kürzlich ein digitales Anti-Diskriminierungsgesetz gefordert. Diese Legislaturperiode wird es aber definitiv nicht mehr kommen.

Wo diskriminieren Algorithmen? Liegt das an den Einstellungen der Programmierer oder an anderen Faktoren? Und was kann man dagegen tun? Über voreingenommene künstliche Intelligenz hat detektor.fm-Moderator Christian Erll mit Varinia Bernau von der Wirtschaftswoche gesprochen.


Jeden Tag erfahren, was wichtig wird? Dann den Podcast abonnieren oder jederzeit bei iTunes, Spotify und Soundcloud hören.

Redaktion