Play
Panthere Noire/Shutterstock.com
Bild: Panthere Noire | Shutterstock

Zurück zum Thema | Sprachassistenten

Wie sexistisch sind Sprachassistenten?

Sprachassistenten sind höflich, hilfsbereit und meistens als weibliche Persönlichkeiten angelegt. Warum ist das so und welche Geschlechterbilder werden damit vermittelt?

Fortschrittliche Technologie, überholtes Frauenbild

Sprachassistenten werden in Deutschland immer beliebter. Laut einer Studie der Postbank nutzt mittlerweile fast die Hälfte der Deutschen die digitalen Gehilfen – Tendenz steigend. Doch mit Alexa, Siri, Cortana und Co. ziehen auch überholt geglaubte Geschlechterstereotype in hiesige Wohnzimmer ein.

Denn die meisten der stets höflichen und hilfsbereiten Assistenten sind als weibliche Persönlichkeiten konzipiert. Nicht nur haben die beliebtesten Sprachassistenten allesamt weiblich konnotierte Namen, sondern sie sprechen in den meisten Fällen auch mit weiblicher Stimme.

Durch so ein technisches Artefakt, kann ein Bild von Frauen erzeugt werden, das wir in der Realität schon lange überkommen haben und das ist etwas, was wir kritisieren.

Corinna Bath, Professorin für Geschlechterforschung in Maschinenbau und Informatik an der TU Braunschweig

Corinna Bath, Professorin für Geschlechterforschung in Maschinenbau und Informatik an der TU Braunschweig

I’d blush if I could

Dass einige Sprachassistenten selbst auf sexistische Beleidigungen noch verlegen bis flirtend reagieren, hat bereits die UNESCO zu eindringlicher Kritik veranlasst. In einem umfangreichen Bericht kritisiert sie das Frauenbild, das damit vermittelt wird und warnt davor, dass sexistische Vorurteile in neue Technologien einprogrammiert und so gefestigt werden.

Viele Hersteller haben an einigen Stellen mittlerweile nachgebessert. Auf sexistische Beschimpfungen gehen die meisten Sprachassistenten inzwischen nicht mehr ein. Und bei fast allen der digitalen Assistenten können die Nutzer und Nutzerinnen mittlerweile zwischen einer weiblichen und einer männlichen Stimme wählen, auch wenn die weibliche Stimme in der Regel voreingestellt bleibt.

Menschen definieren sich auf viele verschiedene Arten nicht nur als binär männlich oder weiblich. Und Künstliche Intelligenz und Sprachassistenten sollten nicht nur die klassischen Geschlechterrollen repräsentieren sondern alle Menschen.

Emil Asmussen, Mitgründer des geschlechtsneutralen Sprachassistenten „Q“

Emil Asmussen, Mitgründer des geschlechtsneutralen Sprachassistenten "Q"

 Sexistische KI

Doch das eigentliche Problem liegt deutlich tiefer und betrifft nicht nur Sprachassistenten. Künstliche Intelligenzen sind im allgemeinen anfällig für Diskriminierung und die Benachteiligung von bestimmten Gruppen. Denn diese werden mit Datensätzen gespeist, die von Menschen stammen und daher bereits mit bestimmten Tendenzen und Vorurteilen belastet sind. Auch dass nur etwa ein Viertel der KI-Fachkräfte weltweit weiblich sind, verstärkt das Problem noch.

Es ist anscheinend leichter, sich eine Welt mit Robotern vorzustellen, die Superintelligenzen sind, als eine Welt, in der Geschlechterunterschiede oder Hautfarben, keine so große Rolle mehr spielen.

Natalie Sontopski, Wissenschaftliche Mitarbeiterin am Komplexlabor Digitale Kultur

Natalie Sontopski, Wissenschaftliche Mitarbeiterin am Komplexlabor Digitale Kultur

Warum Sprachassistenten so oft mit weiblichen Persönlichkeiten ausgestattet werden und welche Gefahren das birgt, darüber spricht detektor.fm-Moderator Yannic Köhler mit Natalie Sontopski, vom Komplexlabor Digitale Kultur und Corinna Bath von der TU Braunschweig. Wie ein Sprachassistent aussehen könnte, der keine überholten Geschlechterklischees reproduziert, das bespricht er mit Emil Asmussen, der mit „Q“ den ersten geschlechtsneutralen Sprachassistenten mitentwickelt hat.