Künstliche Intelligenz ist nicht neutral. Sie reproduziert immer wieder Diskriminierungsformen. Ist KI ohne Vorurteile möglich?
Ein Fotoautomat erkennt nur weiße Gesichter, ein Seifenspender löst nicht über der Hand einer Schwarzen Person aus und ein Chatbot gibt sexistische Inhalte aus. Immer wieder kommt es vor, dass KI-Systeme rassistische, sexistische und andere Diskriminierungsformen reproduzieren. Denn KIs sind nicht frei von Vorurteilen.
Kein Wunder, KIs werden von Menschen entwickelt und wo diese nicht fair sind, ist es die KI auch nicht. Das Problem ist also nicht die Technik an sich, sondern die Entwicklerteams dahinter. Überdurchschnittlich viele weiße Männer arbeiten im Bereich der Künstlichen Intelligenz. Der Frauenanteil in der deutschen IT-Branche lag 2021 bei gerade mal 18 Prozent. Auch Migrantinnen und Migranten sind in der Branche deutlich unterrepräsentiert.
Expertinnen und Experten fordern daher schon lange, dass die KI-Entwicklung deutlich diverser werden muss. Doch reicht das, um KI vorurteilsfrei zu designen? Ist es überhaupt möglich, eine KI zu programmieren, die keine Diskriminierungen reproduziert?
Darüber spricht detektor.fm-Redakteurin Sarah-Marie Plekat mit Kenza Ait Si Abbou. Sie ist Ingenieurin, Elektrotechnikerin und Expertin für Robotik und Künstliche Intelligenz. Pia Sombetzki erklärt in der Folge, wie Systeme mit automatisierter Entscheidungsfindung in Deutschland besser reguliert werden könnten. Sombetzki arbeitet bei der gemeinnützigen Organisation Algorithm Watch, die untersucht, wie künstliche Intelligenz sich auf die Gesellschaft auswirkt.
Diese Folge ist Teil unserer Themenwoche „Künstliche Intelligenz“. Wie verändert KI unser Leben? Welche Chancen und welche Risiken bringen die Innovationen mit sich? Wir sprechen in dieser Woche über Deepfakes, Strafverfolgung, Musik und Diskriminierung durch KI mit Vorurteilen.