Gespräche mit Computern
Künstliche Intelligenz wie Apples Sprachassistent Siri und Alexa von Amazon können nicht nur Termine eintragen und Musik abspielen, sondern auch Unterhaltungen führen. Solche KI-Assistenten und Chatbots begegnen uns heute ganz natürlich im Alltag. Als Chatbots bezeichnet man Anwendungen, die künstliche Intelligenz verwenden, um menschliche Gespräche zu imitieren.
Der erste Chatbot wurde vor mehr als 60 Jahren erfunden. Das Computerprogramm mit dem Namen Eliza gilt als Vorgänger der heutigen KIs. Es arbeitete mit einer Art Assoziation von Ideen: Eliza konnte Schlüsselwörter in Sätzen erkennen und reagierte, indem sie einen Satz schrieb, der dem erkannten Keyword zugeordnet war. Eigentlich wollte ihr Erfinder Joseph Weizenbaum damit beweisen, dass Menschen sich nicht durch einen Computer täuschen lassen – doch genau das Gegenteil war der Fall.
No Hard(ware) Feelings
Die Frage danach, wie menschlich Maschinen sein können, löst seither immer wieder philosophische und technische Debatten aus. Erst kürzlich hat der Software-Ingenieur Blake Lemoine behauptet, dass Googles Gesprächstechnologie LaMDA Gefühle entwickelt habe und sich ihrer Existenz bewusst sei. Google hat mittlerweile klargestellt, dass das nicht stimmt und Lemoine daraufhin entlassen.
Trotzdem hat der Fall die Diskussion um KIs wieder neu entfacht. Können KIs ein eigenes Bewusstsein entwickeln? Wie menschlich können Maschinen sein? Darüber spricht detektor.fm-Moderatorin Lara-Lena Gödde heute mit Prof. Karsten Wendland. Er leitet die Forschungsgruppe KI Bewusstsein am Karlsruher Institut für Technologie, KIT. Und ob sich Begriffe wie Bewusstsein und Gefühle überhaupt auf Maschinen übertragen lassen, das beantwortet Dr. Thilo Hagendorff. Er ist Autor und Experte für KI-Ethik.