Forschungsquartett | Diskriminierende KI

Wieso diskriminieren künstliche Intelligenzen?

Immer mehr Entscheidungen werden nicht mehr von uns Menschen, sondern von künstlicher Intelligenz (KI) und Algorithmen getroffen. Allerdings gibt es dabei ein großes Problem: Auch KI ist nicht frei von Vorurteilen.

Diskriminierende KI: Doch nicht so wertfrei?

Schwarze Menschen werden von Gesichtserkennungssoftware nicht so gut erkannt wie weiße Menschen. Gesundheitsapps raten bei Eingabe der gleichen Symptome Frauen zu Selbstbehandlung und Männern dazu, einen Arzt aufzusuchen. Die Chat-Software ChatGPT spuckt rassistische und sexistische Inhalte aus. Das sind nur einige Beispiele dafür, was beim Stichwort diskriminierende KI gemeint ist.

Aber wie kann das sein? Sollten präzise Berechnungssysteme nicht eigentlich zu einer absoluten Objektivität führen? Im Grunde schon. Subjektiv und diskriminierend ist auch nicht die KI an sich, sondern die Datensätze, mit denen sie gefüttert wird und auf deren Basis sie Entscheidungen trifft. Und diese sind voller Stereotype sowie rassistischer und sexistischer Vorurteile.

Das erschiene uns ja auch komisch, wenn wir sagen würden, die Software des Autos ist Schuld, wenn es einen Unfall gebaut hat. Wir würden sagen: Wer hat das programmiert? […] Wir würden also immer, wenn wir Verantwortung nehmen oder tragen, an Menschen denken.

Prof. Dr. Serhat Karakayali, Professor für Migration and Mobility Studies, Leuphana Universität Lüneburg

Foto: Ute Langkafel

Lernende Software

Künstliche Intelligenz kann Vorurteile reproduzieren und zum Teil sogar verstärken. Deshalb ist es wichtig, dass Datensätze überprüft und die KI trainiert wird und die Menschen hinter der Software Verantwortung tragen. Dass auch das Training von künstlicher Intelligenz ethisch nicht immer ganz unproblematisch ist, zeigt die aktuelle Debatte um die Chat-Software ChatGPT: Um diskriminierende Aussagen der Software zu vermeiden, wurde sie, laut Time Magazin, durch sogenannte Klickarbeit trainiert. Den Menschen in Kenia wurden für diese Arbeit nicht nur sehr geringe Löhne gezahlt, sie wurden auch teils traumatisierenden Inhalten ausgesetzt.

Wenn wir uns mit Ungerechtigkeit und anderen problematischen Dingen befassen müssen, dann setzen wir uns dem natürlich in gewisser Weise aus. Aber ich glaube, darum kommen wir nicht herum.

Prof. Dr. Serhat Karakayali

Foto: Ute Langkafel

Der Soziologe Serhat Karakayali sieht die Verantwortung bei den Entwicklungsteams. Aber nicht nur: Er betont auch die Notwendigkeit einer gesellschaftlichen und wissenschaftlichen Debatte. Auf der einen Seite sollten Menschen, die künstliche Intelligenz nutzen, ein gewisses Grundverständnis für die Technologie haben. Außerdem sollten die Entwicklungsteams Datensätze offenlegen und transparent mit der Beschaffenheit der Technologie umgehen.

Wie kann es sein, dass künstliche Intelligenz diskriminerend handelt? Wie könnte das in Zukunft verhindert werden und welche Rolle spielt die Forschung dabei? Darüber hat detektor.fm-Redakteurin Lina Kordes mit Prof. Dr. Serhat Karakayali gesprochen. Er ist Professor für Migration and Mobility Studies an der Leuphana Universität Lüneburg.