Play
Foto: Den Rise | shutterstock.com
Bild: Diskriminierende KI | Den Rise/ shutterstock.com

Forschungsquartett | Diskriminierende KI

Wieso diskriminieren künstliche Intelligenzen?

Immer mehr Entscheidungen werden nicht mehr von uns Menschen, sondern von künstlicher Intelligenz (KI) und Algorithmen getroffen. Allerdings gibt es dabei ein großes Problem: Auch KI ist nicht frei von Vorurteilen.

Podcast-Tipp in eigener Sache

Habt ihr auch schon einmal vergeblich nach einer bezahlbaren Wohnung gesucht? Dann haben wir hier einen Tipp für euch: Der Podcast „Teurer Wohnen“ erzählt eine Geschichte aus Berlin, die zeigt, was überall in Deutschland falsch läuft und sucht nach Lösungen.

Diskriminierende KI: Doch nicht so wertfrei?

Schwarze Menschen werden von Gesichtserkennungssoftware nicht so gut erkannt wie weiße Menschen. Gesundheitsapps raten bei Eingabe der gleichen Symptome Frauen zu Selbstbehandlung und Männern dazu, einen Arzt aufzusuchen. Die Chat-Software ChatGPT spuckt rassistische und sexistische Inhalte aus. Das sind nur einige Beispiele dafür, was beim Stichwort diskriminierende KI gemeint ist.

Aber wie kann das sein? Sollten präzise Berechnungssysteme nicht eigentlich zu einer absoluten Objektivität führen? Im Grunde schon. Subjektiv und diskriminierend ist auch nicht die KI an sich, sondern die Datensätze, mit denen sie gefüttert wird und auf deren Basis sie Entscheidungen trifft. Und diese sind voller Stereotype sowie rassistischer und sexistischer Vorurteile.

Das erschiene uns ja auch komisch, wenn wir sagen würden, die Software des Autos ist Schuld, wenn es einen Unfall gebaut hat. Wir würden sagen: Wer hat das programmiert? […] Wir würden also immer, wenn wir Verantwortung nehmen oder tragen, an Menschen denken.

Prof. Dr. Serhat Karakayali, Professor für Migration and Mobility Studies, Leuphana Universität Lüneburg

Prof. Dr. Serhat Karakayali, Professor für Migration and Mobility Studies, Leuphana Universität LüneburgFoto: Ute Langkafel

Lernende Software

Künstliche Intelligenz kann Vorurteile reproduzieren und zum Teil sogar verstärken. Deshalb ist es wichtig, dass Datensätze überprüft und die KI trainiert wird und die Menschen hinter der Software Verantwortung tragen. Dass auch das Training von künstlicher Intelligenz ethisch nicht immer ganz unproblematisch ist, zeigt die aktuelle Debatte um die Chat-Software ChatGPT: Um diskriminierende Aussagen der Software zu vermeiden, wurde sie, laut Time Magazin, durch sogenannte Klickarbeit trainiert. Den Menschen in Kenia wurden für diese Arbeit nicht nur sehr geringe Löhne gezahlt, sie wurden auch teils traumatisierenden Inhalten ausgesetzt.

Wenn wir uns mit Ungerechtigkeit und anderen problematischen Dingen befassen müssen, dann setzen wir uns dem natürlich in gewisser Weise aus. Aber ich glaube, darum kommen wir nicht herum.

Prof. Dr. Serhat Karakayali

Prof. Dr. Serhat KarakayaliFoto: Ute Langkafel

Der Soziologe Serhat Karakayali sieht die Verantwortung bei den Entwicklungsteams. Aber nicht nur: Er betont auch die Notwendigkeit einer gesellschaftlichen und wissenschaftlichen Debatte. Auf der einen Seite sollten Menschen, die künstliche Intelligenz nutzen, ein gewisses Grundverständnis für die Technologie haben. Außerdem sollten die Entwicklungsteams Datensätze offenlegen und transparent mit der Beschaffenheit der Technologie umgehen.

Wie kann es sein, dass künstliche Intelligenz diskriminerend handelt? Wie könnte das in Zukunft verhindert werden und welche Rolle spielt die Forschung dabei? Darüber hat detektor.fm-Redakteurin Lina Kordes mit Prof. Dr. Serhat Karakayali gesprochen. Er ist Professor für Migration and Mobility Studies an der Leuphana Universität Lüneburg.

Volles Programm, (aber) null Banner-Werbung

Seit 2009 arbeiten wir bei detektor.fm an der digitalen Zukunft des Radios in Deutschland. Mit unserem Podcast-Radio wollen wir dir authentische Geschichten und hochwertige Inhalte bieten. Du möchtest unsere Themen ohne Banner entdecken? Dann melde dich einmalig an — eingeloggt bekommst du keine Banner-Werbung mehr angezeigt. Danke!

detektor.fm unterstützen

Weg mit der Banner-Werbung?

Als kostenlos zugängliches, unabhängiges Podcast-Radio brauchen wir eure Unterstützung! Die einfachste Form ist eine Anmeldung mit euer Mailadresse auf unserer Webseite. Eingeloggt blenden wir für euch die Bannerwerbung aus. Ihr helft uns schon mit der Anmeldung, das Podcast-Radio detektor.fm weiterzuentwickeln und noch besser zu werden.

Unterstützt uns, in dem ihr euch anmeldet!

Ja, ich will!

Ihr entscheidet!

Keine Lust auf Werbung und Tracking? Dann loggt euch einmalig mit eurer Mailadresse ein. Dann bekommt ihr unsere Inhalte ohne Bannerwerbung.

Einloggen