Play
Bild: MJgraphics | shutterstock
Bild: MJgraphics | Shutterstock

Zurück zum Thema | Algorithmen und Diskriminierung

Diskriminierende Algorithmen: Was tun?

Algorithmen sind objektive und neutrale Automaten, oder? Nicht ganz, denn sie werden von Menschen programmiert, die ihre Vorurteile – oft unbewusst – mit in die Datensätze einfließen lassen. Gesellschaftliche Diskriminierungsmuster können sich dadurch verstetigen.

Algorithmen überall

Überall begegnen sie uns im Alltag: Spotify schlägt einen passenden Song für die Playlist vor. Die Ampel schaltet von rot auf gelb auf grün. Sprachassistenten nehmen einen Befehl wahr und setzen ihn um. Sie sind längst nicht mehr nur auf dem Computer oder Smartphone zu finden. Es ist praktisch, wenn das Navi in Millisekunden die schnellste Fahrroute errechnet und sich das Smartphone via Gesichtserkennung entsperren lässt. Dass unser Alltag mehr und mehr von Algorithmen bestimmt wird, birgt aber auch Gefahren.

Es sind diejenigen, die diese Algorithmen konstruieren, die da ihre Weltbilder bewusst oder unbewusst drin einpflanzen.

Lorenz Matzat, Journalist und Mitgründer von „algorithmwatch“

Lorenz Matzat, Journalist und Mitgründer von „algorithmwatch“ Foto: Julia Bornkessel

Algorithmen zementieren Vorurteile

Die Annahme liegt nahe: Computerprogramme sind neutral und objektiv. Zunächst stimmt das. Ein Algorithmus an sich ist weder rassistisch noch sexistisch. Das Problem liegt in den Datensätzen, auf denen die sie beruhen. Sind es vor allem weiße, männliche Gesichter, die als Vorlage bei der Programmierung von Gesichtserkennungssoftwares verwendet werden, kann es vorkommen, dass das Gesicht einer Person of Colour nicht als menschlich erkannt wird. So reproduziert der menschengemachte Algorithmus die Diskriminierungsformen, die in der Gesellschaft verankert sind.

Das Problem mit künstlicher Intelligenz ist nicht, dass es zu wenig Gesetze gibt, sondern dass man seine Rechte nicht durchsetzen kann. Weil man ja im Normalfall nicht weiß, dass man diskriminiert wird.

Alexandra Geese, Europaabgeordnete der Fraktion Die Grünen/EFA

Alexandra Geese, Europaabgeordnete der Fraktion Die Grünen/EFA

Lorenz Matzat ist Mitgründer der gemeinnützigen Organisation „algorithmwatch“, die algorithmische Entscheidungsprozesse untersucht. Mit ihm bespricht detektor.fm-Moderator Yannic Köhler, weshalb Algorithmen bestimmte Menschen strukturell benachteiligen und wie das verhindert werden kann. Alexandra Geese ist Abgeordnete der Fraktion Die Grünen/EFA im EU-Parlament und Mitglied des Sonderausschusses zu künstlicher Intelligenz im digitalen Zeitalter. Sie erklärt, was politisch gegen diskriminierende Algorithmen getan werden kann.

Volles Programm, (aber) null Banner-Werbung

Seit 2009 arbeiten wir bei detektor.fm an der digitalen Zukunft des Radios in Deutschland. Mit unserem Podcast-Radio wollen wir dir authentische Geschichten und hochwertige Inhalte bieten. Du möchtest unsere Themen ohne Banner entdecken? Dann melde dich einmalig an — eingeloggt bekommst du keine Banner-Werbung mehr angezeigt. Danke!

detektor.fm unterstützen

Weg mit der Banner-Werbung?

Als kostenlos zugängliches, unabhängiges Podcast-Radio brauchen wir eure Unterstützung! Die einfachste Form ist eine Anmeldung mit euer Mailadresse auf unserer Webseite. Eingeloggt blenden wir für euch die Bannerwerbung aus. Ihr helft uns schon mit der Anmeldung, das Podcast-Radio detektor.fm weiterzuentwickeln und noch besser zu werden.

Unterstützt uns, in dem ihr euch anmeldet!

Ja, ich will!

Ihr entscheidet!

Keine Lust auf Werbung und Tracking? Dann loggt euch einmalig mit eurer Mailadresse ein. Dann bekommt ihr unsere Inhalte ohne Bannerwerbung.

Einloggen