Mensch oder Maschine?
Wenn Algorithmen Entscheidungen treffen, kann das Verwaltungsbehörden spürbar entlasten — personell und finanziell. Doch diese Entlastung ist nicht der einzige relevante Faktor, der zu berücksichtigen ist, wenn man KI-gestützte Entscheidungen einführen will. „Es ist nicht egal, wie Menschen Herrschaftsverfahren beurteilen — sie sollten schon so ausgestaltet sein, dass man sie als fair wahrnimmt“, sagt Pascal Langenbach.
Er untersucht am Max-Planck-Institut zur Erforschung von Gemeinschaftsgütern, unter welchen Umständen maschinengestützte Entscheidungen als gerecht empfunden werden. Und warnt vor Schwarz-Weiß-Denken in der Debatte: Denn auch wenn Menschen normalerweise menschliche Entscheidende bevorzugen — am fairsten werden Entscheidungen beurteilt, die von Mensch und Maschine gemeinsam getroffen werden.
Den Algorithmen vertrauen
Pascal Langenbach untersucht die Fairnesswahrnehmung anhand von Experimenten. Die Versuchspersonen werden dazu befragt, wie fair sie konkrete Varianten der Kooperation von Mensch und Maschine finden. Und zwar anhand von drei fiktiven Beispielen: Wer kriegt einen Studienplatz an einer Hochschule? Wie werden Flüchtlinge auf Kommunen verteilt? Und in welchen Stadtvierteln soll die Polizei Personenkontrollen durchführen?
Für die Fairnesswahrnehmung macht es kaum einen Unterschied, um welche Entscheidung es inhaltlich geht. Lediglich das sogenannte Predictive Policing fällt etwas aus der Reihe: Hier wird menschlichen Entscheidern nämlich besonders wenig Entscheidungskompetenz zugesprochen.
In dieser Folge von „Ach, Mensch!“ spricht detektor.fm-Moderatorin Charlotte Thielmann mit Pascal Langenbach über den Wert von guten Begründungen, Außenseiter im Wissenschaftsbetrieb und die Frage, ob er Entscheidungen von Algorithmen vertraut.