Zurück zum Thema | Algorithmen und Diskriminierung

Diskriminierende Algorithmen: Was tun?

Algorithmen sind objektive und neutrale Automaten, oder? Nicht ganz, denn sie werden von Menschen programmiert, die ihre Vorurteile – oft unbewusst – mit in die Datensätze einfließen lassen. Gesellschaftliche Diskriminierungsmuster können sich dadurch verstetigen.

Algorithmen überall

Überall begegnen sie uns im Alltag: Spotify schlägt einen passenden Song für die Playlist vor. Die Ampel schaltet von rot auf gelb auf grün. Sprachassistenten nehmen einen Befehl wahr und setzen ihn um. Sie sind längst nicht mehr nur auf dem Computer oder Smartphone zu finden. Es ist praktisch, wenn das Navi in Millisekunden die schnellste Fahrroute errechnet und sich das Smartphone via Gesichtserkennung entsperren lässt. Dass unser Alltag mehr und mehr von Algorithmen bestimmt wird, birgt aber auch Gefahren.

Es sind diejenigen, die diese Algorithmen konstruieren, die da ihre Weltbilder bewusst oder unbewusst drin einpflanzen.

Lorenz Matzat, Journalist und Mitgründer von „algorithmwatch“

Foto: Julia Bornkessel

Algorithmen zementieren Vorurteile

Die Annahme liegt nahe: Computerprogramme sind neutral und objektiv. Zunächst stimmt das. Ein Algorithmus an sich ist weder rassistisch noch sexistisch. Das Problem liegt in den Datensätzen, auf denen die sie beruhen. Sind es vor allem weiße, männliche Gesichter, die als Vorlage bei der Programmierung von Gesichtserkennungssoftwares verwendet werden, kann es vorkommen, dass das Gesicht einer Person of Colour nicht als menschlich erkannt wird. So reproduziert der menschengemachte Algorithmus die Diskriminierungsformen, die in der Gesellschaft verankert sind.

Das Problem mit künstlicher Intelligenz ist nicht, dass es zu wenig Gesetze gibt, sondern dass man seine Rechte nicht durchsetzen kann. Weil man ja im Normalfall nicht weiß, dass man diskriminiert wird.

Alexandra Geese, Europaabgeordnete der Fraktion Die Grünen/EFA

Lorenz Matzat ist Mitgründer der gemeinnützigen Organisation „algorithmwatch“, die algorithmische Entscheidungsprozesse untersucht. Mit ihm bespricht detektor.fm-Moderator Yannic Köhler, weshalb Algorithmen bestimmte Menschen strukturell benachteiligen und wie das verhindert werden kann. Alexandra Geese ist Abgeordnete der Fraktion Die Grünen/EFA im EU-Parlament und Mitglied des Sonderausschusses zu künstlicher Intelligenz im digitalen Zeitalter. Sie erklärt, was politisch gegen diskriminierende Algorithmen getan werden kann.