Der Kontext ist entscheidend
Unser Smarthome dimmt abends genau zur richtigen Zeit das Licht, ChatGPT sagt uns, was wir mit unseren Kühlschrankresten kochen können, und wenn doch etwas fehlt, kann Alexa das für uns automatisch nachkaufen. Schon längst hat künstliche Intelligenz in vielen Bereichen Einfluss darauf, wie wir unser Leben führen. Die Grenze zwischen Mensch und Maschine scheint immer fließender zu werden. Und je präsenter KI in unserem Alltag ist, desto mehr prägt sie auch unseren Blick auf Technologie insgesamt: Wann vertrauen wir einer Maschine? Und wann sind wir skeptisch?
Dazu forscht Marina Chugunova am Münchner Max-Planck-Institut für Innovation und Wettbewerb. Ihre Forschung zeigt, dass es auf den Kontext ankommt: Menschen akzeptieren KI-Technologien relativ gut, wenn es um analytische Aufgaben geht, etwa um Rechenaufgaben oder technische Optimierungen. Geht es jedoch um soziale oder ethische Entscheidungen, sinkt die Akzeptanz deutlich.
Meiner Meinung nach vertrauen die Menschen Technologien eher zu wenig.
Marina Chugunova, Senior Research Fellow am Max-Planck-Institut für Innovation und Wettbewerb

Vertrauen in die KI
Die Grenze zwischen analytischen und sozialen Aufgaben ist allerdings oft überraschend unscharf. Ein gutes Beispiel sind medizinische Diagnosen, die auf KI basieren. Obwohl sie Fakten auswerten, vertrauen viele Menschen doch eher menschlichen Expertinnen und Experten. Unterstellt wird dabei ein sogenannter Uniqueness Neglect: Künstlicher Intelligenz wird nicht zugetraut, die Besonderheiten individueller Situationen angemessen zu berücksichtigen.
Häufig wünschen sich Menschen im Umgang mit KI ein Human-in-the-Loop-Prinzip, bei dem der Mensch das letzte Wort hat. Ist ein Mensch in eine Entscheidung einbezogen, wird das psychologische Bedürfnis nach Kontrolle der KI befriedigt. Gleichzeitig warnt Marina Chugunova auch vor der Fehlbarkeit menschlicher Einschätzungen. Wer die KI korrigieren will, riskiert auch, die Qualität der Entscheidung zu verschlechtern. Schließlich können KI-Systeme oft unzählige Parameter gleichzeitig berücksichtigen, während menschliche Urteile oft auch unbewusst verzerrt sind.
Wir messen KI-Systeme an viel höheren Standards als Menschen. Beim Menschen forschen wir schon seit Jahren, wie er Entscheidungen trifft — und verstehen es immer noch nicht.
Marina Chugunova
In dieser Folge von „Ach, Mensch!“ spricht detektor.fm-Moderatorin Jessica Hughes mit Marina Chugunova, Senior Research Fellow am Max-Planck-Institut für Innovation und Wettbewerb in München. Sie erzählt im Podcast, warum jeder technologische Fortschritt auch einen gesellschaftlichen Lernprozess braucht und warum wir keine Angst haben müssen, unsere menschliche Intuition zu verlieren.