Diskriminierende KI: Doch nicht so wertfrei?
Schwarze Menschen werden von Gesichtserkennungssoftware nicht so gut erkannt wie weiße Menschen. Gesundheitsapps raten bei Eingabe der gleichen Symptome Frauen zu Selbstbehandlung und Männern dazu, einen Arzt aufzusuchen. Die Chat-Software ChatGPT spuckt rassistische und sexistische Inhalte aus. Das sind nur einige Beispiele dafür, was beim Stichwort diskriminierende KI gemeint ist.
Aber wie kann das sein? Sollten präzise Berechnungssysteme nicht eigentlich zu einer absoluten Objektivität führen? Im Grunde schon. Subjektiv und diskriminierend ist auch nicht die KI an sich, sondern die Datensätze, mit denen sie gefüttert wird und auf deren Basis sie Entscheidungen trifft. Und diese sind voller Stereotype sowie rassistischer und sexistischer Vorurteile.
Lernende Software
Künstliche Intelligenz kann Vorurteile reproduzieren und zum Teil sogar verstärken. Deshalb ist es wichtig, dass Datensätze überprüft und die KI trainiert wird und die Menschen hinter der Software Verantwortung tragen. Dass auch das Training von künstlicher Intelligenz ethisch nicht immer ganz unproblematisch ist, zeigt die aktuelle Debatte um die Chat-Software ChatGPT: Um diskriminierende Aussagen der Software zu vermeiden, wurde sie, laut Time Magazin, durch sogenannte Klickarbeit trainiert. Den Menschen in Kenia wurden für diese Arbeit nicht nur sehr geringe Löhne gezahlt, sie wurden auch teils traumatisierenden Inhalten ausgesetzt.
Der Soziologe Serhat Karakayali sieht die Verantwortung bei den Entwicklungsteams. Aber nicht nur: Er betont auch die Notwendigkeit einer gesellschaftlichen und wissenschaftlichen Debatte. Auf der einen Seite sollten Menschen, die künstliche Intelligenz nutzen, ein gewisses Grundverständnis für die Technologie haben. Außerdem sollten die Entwicklungsteams Datensätze offenlegen und transparent mit der Beschaffenheit der Technologie umgehen.
Wie kann es sein, dass künstliche Intelligenz diskriminerend handelt? Wie könnte das in Zukunft verhindert werden und welche Rolle spielt die Forschung dabei? Darüber hat detektor.fm-Redakteurin Lina Kordes mit Prof. Dr. Serhat Karakayali gesprochen. Er ist Professor für Migration and Mobility Studies an der Leuphana Universität Lüneburg.