Play
Foto: Pascal Langenbach privat
Bild: Pascal Langenbach erforscht, wie sehr wir den Entscheidungen von Algorithmen vertrauen. | Foto: Bernd Brundert

Ach, Mensch! | Pascal Langenbach

Können Maschinen fair entscheiden, Pascal Langenbach?

Eine Künstliche Intelligenz, die Flüchtlinge auf Kommunen verteilt, Zulassungen zur Uni prüft oder das Go für Polizeieinsätze gibt? Pascal Langenbach forscht dazu, wie fair wir es finden, wenn Maschinen wichtige Entscheidungen treffen.

Mensch oder Maschine?

Wenn Algorithmen Entscheidungen treffen, kann das  Verwaltungsbehörden spürbar entlasten — personell und finanziell. Doch diese Entlastung ist nicht der einzige relevante Faktor, der zu berücksichtigen ist, wenn man KI-gestützte Entscheidungen einführen will. „Es ist nicht egal, wie Menschen Herrschaftsverfahren beurteilen — sie sollten schon so ausgestaltet sein, dass man sie als fair wahrnimmt“, sagt Pascal Langenbach.

Er untersucht am Max-Planck-Institut zur Erforschung von Gemeinschaftsgütern, unter welchen Umständen maschinengestützte Entscheidungen als gerecht empfunden werden. Und warnt vor Schwarz-Weiß-Denken in der Debatte: Denn auch wenn Menschen normalerweise menschliche Entscheidende bevorzugen — am fairsten werden Entscheidungen beurteilt, die von Mensch und Maschine gemeinsam getroffen werden.

Menschen befolgen eher das Recht und kooperieren eher mit rechtlichen Autoritäten, wenn sie das Gefühl haben: Diese Autoritäten üben ihre Macht fair aus.

Pascal Langenbach, Max-Planck-Institut zur Erforschung von Gemeinschaftsgütern

Pascal Langenbach, Max-Planck-Institut zur Erforschung von GemeinschaftsgüternFoto: Bernd Brundert

Den Algorithmen vertrauen

Pascal Langenbach untersucht die Fairnesswahrnehmung anhand von Experimenten. Die Versuchspersonen werden dazu befragt, wie fair sie konkrete Varianten der Kooperation von Mensch und Maschine finden. Und zwar anhand von drei fiktiven Beispielen: Wer kriegt einen Studienplatz an einer Hochschule? Wie werden Flüchtlinge auf Kommunen verteilt? Und in welchen Stadtvierteln soll die Polizei Personenkontrollen durchführen?

Für die Fairnesswahrnehmung macht es kaum einen Unterschied, um welche Entscheidung es inhaltlich geht. Lediglich das sogenannte Predictive Policing fällt etwas aus der Reihe: Hier wird menschlichen Entscheidern nämlich besonders wenig Entscheidungskompetenz zugesprochen.

In dieser Folge von „Ach, Mensch!“ spricht detektor.fm-Moderatorin Charlotte Thielmann mit Pascal Langenbach über den Wert von guten Begründungen, Außenseiter im Wissenschaftsbetrieb und die Frage, ob er Entscheidungen von Algorithmen vertraut.

Volles Programm, (aber) null Banner-Werbung

Seit 2009 arbeiten wir bei detektor.fm an der digitalen Zukunft des Radios in Deutschland. Mit unserem Podcast-Radio wollen wir dir authentische Geschichten und hochwertige Inhalte bieten. Du möchtest unsere Themen ohne Banner entdecken? Dann melde dich einmalig an — eingeloggt bekommst du keine Banner-Werbung mehr angezeigt. Danke!

detektor.fm unterstützen

Weg mit der Banner-Werbung?

Als kostenlos zugängliches, unabhängiges Podcast-Radio brauchen wir eure Unterstützung! Die einfachste Form ist eine Anmeldung mit euer Mailadresse auf unserer Webseite. Eingeloggt blenden wir für euch die Bannerwerbung aus. Ihr helft uns schon mit der Anmeldung, das Podcast-Radio detektor.fm weiterzuentwickeln und noch besser zu werden.

Unterstützt uns, in dem ihr euch anmeldet!

Ja, ich will!

Ihr entscheidet!

Keine Lust auf Werbung und Tracking? Dann loggt euch einmalig mit eurer Mailadresse ein. Dann bekommt ihr unsere Inhalte ohne Bannerwerbung.

Einloggen