Ich habe damals gedacht, mit Sprachmodellen brauche ich mich jetzt glücklicherweise nicht auseinanderzusetzen. Die scheinen noch sehr, sehr dumm zu sein. Ich war völlig überrascht, als ChatGPT dann rauskam, was die können. Diese Art von Technologie wird nicht superintelligent werden. Die Maschine ist während des Lernens nicht selber in der Welt. Die weiß eben nicht, was eine Flasche ist. Die weiß nicht, was Wasser für mich als Mensch bedeutet. Und dann sollten wir vor allen Dingen mit Kindern darüber reden, was es mit uns macht, wenn da etwas auf der anderen Seite ist, das man als so menschlich wahrnimmt. Denn meine Kollegin hat heute auch gerade erzählt, sie tut das mit ihren Studenten. Und da sagen relativ viele: Ich habe eine Beziehung zu einem Sprachmodell. Das ist ein Freund von mir. Die großen Fragen der Wissenschaft – ein Podcast von Spektrum der Wissenschaft und detektor.fm. Hallo und herzlich willkommen zur ersten Live-Aufnahme des Podcasts „Die großen Fragen der Wissenschaft“. Ich bin Katharina Menne, Wissenschaftsjournalistin und Redakteurin bei Spektrum der Wissenschaft. Herzlich willkommen auch von mir. Mein Name ist Carsten Könnecker. Ich bin Redaktionsleiter für Psychologie und Social Sciences bei Spektrum der Wissenschaft, Katharinas Kollege. Wir zwei zusammen machen diesen Podcast. Und heute geht es um die große Frage: Wird künstliche Intelligenz uns überflügeln? Wir sind aber nicht nur Gastgeber eines Podcasts, sondern für diese Folge auch selbst zu Gast, nämlich beim Beats and Bones Podcast Festival im Berliner Naturkundemuseum. Was ein fantastischer Ort für ein solches Event! Ihr habt bestimmt auch alle schon unten im großen Sauriersaal vorbeigeschaut und so ein bisschen die Nacht im Museum genossen. Ich finde, das macht große Lust auf Wissenschaft. Wenn ich in die Runde schaue, dann sehe ich ziemlich viele neugierige Gesichter. Was sind das hier für Leute? Was ist das für ein Podcast? Dieser neue Podcast, der eigentlich erst mit einer Folge draußen ist, Ihr passt zu uns, denn wir sind auch total neugierig. Und bei der Frage, was künstliche Intelligenz mit uns macht, ob sie uns vielleicht in nicht allzu ferner Zukunft überflügelt, da geht es um sehr viel. Es geht um Fremdbestimmung durch Algorithmen, um eine sich womöglich radikal wandelnde Lern- und Arbeitswelt und am Ende um die Übernahme der Weltherrschaft durch die KI. Das zumindest glauben etliche Menschen, wenn man der einen oder anderen Umfrage traut. Und all dies diskutieren wir heute Abend mit keiner geringeren als Deutschlands führender KI-Erklärerin, so bezeichnet sie der Verlag, in dem sie gerade ein neues Sachbuch zum Thema veröffentlicht hat. Der Titel lautet „Weiß die KI, dass sie nichts weiß?“, wofür wir Chatbots und KI-Agenten nutzen sollten, wo sie irren und wo wir aufpassen müssen. Begrüßt bitte mit uns unseren Gast, Frau Professor Katharina Zweig von der Technischen Universität Kaiserslautern-Landau. Herzlichen Dank für die Einladung! Ich freue mich ganz riesig, dass wir Sie gewinnen konnten, hier heute mit uns die dritte Folge mit uns aufzunehmen. Sie sind Professorin für Informatik in Kaiserslautern und Direktorin des dortigen Algorithm Accountability Lab. Sie verfassen, wir sagten es schon, populäre Sachbücher. Das ist nicht das erste. Sie haben schon einige geschrieben, treten in Podcasts auf, offenbar. Und wenn es um Fragen im Überschneidungsbereich zwischen Ethik und Digitalisierung geht, zwischen Gesellschaft und Politik, kommt kaum jemand an Ihnen vorbei. Nicht wir Journalisten und nicht die Politik, denn gerade heute haben wir erfahren, dass Katharina Zweig das Bundesverdienstkreuz erhalten wird. Herzlichen Glückwunsch nochmal an dieser Stelle! Aber meine erste Frage lautet nicht nur: Wir Journalisten, nicht die Politik, kommen an Ihnen vorbei. Wie kam es eigentlich dazu? Das ist eine sehr gute Frage. Ich habe eigentlich mal Biochemie studiert, weil ich dachte, ich würde wirklich gerne verstehen, wie der Mensch funktioniert. Und wer schon mal im Biologielabor gestanden hat, der weiß, dass die Datenerhebung gar nicht so einfach ist. Ich habe damals neun Monate lang Hefezellenkulturen gezählt mit so einer Pipettenspitze und habe dann versucht, irgendwelche Statistiken draufzuschmeißen. Und ja, einer dieser Brutschränke hat nicht richtig funktioniert. Das heißt, ein Drittel meiner Experimente war einfach kaputt. Und dann versucht man, aus den restlichen zwei Dritteln noch irgendwas zu machen. Gleichzeitig hatte ich Informatik studiert und da war die Welt plötzlich so schön clean. Da kann man nämlich Algorithmen entwickeln, da kann man mathematisch beweisen, dass die korrekt sind. Dann kann man mathematisch beweisen, wie schnell und effizient die sind. Das hat mir wahnsinnig gut gefallen, weil ich dachte, jetzt ist alles so schön clean. Ich kann was beweisen. Und dann stellte sich aber heraus, in dem Moment, wo man Algorithmen auf Daten wirft, da gibt es eine Subjektivität. Also man denkt ja eigentlich, Algorithmen sind objektiv, das sind ja Zahlen, das ist gemessen. Aber in dem Moment, wo man entscheidet, welche Methode man auf welche Daten schmeißt, um dann diese Zahlen irgendwie zu interpretieren, da wird es ein bisschen schwierig. Und gerade zu diesem Zeitpunkt, als ich das so gemerkt habe, in einem bestimmten Feld, Analyse komplexer Netzwerke, kam ein Journalist, Matthias Spierkamp, auf mich zu und meinte, da gibt es jetzt so etwas Neues: Algorithm Accountability. Sollen wir dazu nicht was machen? Da habe ich gesagt, ich habe gar keine Zeit, aber das klingt sehr spannend. Können wir mal telefonieren? Und dann habe ich dafür Zeit gemacht. Wir haben eine NGO gegründet damals, da bin ich nicht mehr aktiv. Aber die Mission von der NGO und von mir ist, dass wir Menschen erklären, was diese Technologie ist, was die kann, damit sie alle selber entscheiden können: Will ich das jetzt an dieser Stelle verwenden oder nicht? Das ist die ganz kurze Kurzfassung. Und da kann man ja noch obendrauf setzen: Sie haben in Kaiserslautern federführend den deutschlandweit ersten Studiengang Sozioinformatik entwickelt. Und da hört man ja schon wieder raus, Sie bewegen sich gerne an Schnittstellen. Was lernt man denn in diesem Studiengang, den man im Bachelor und im Master studieren kann? Wir versuchen nicht nur, das Software-System zu sehen. Also der klassische Informatiker lernt, dass es Anforderungen von einem Auftragsgeber gibt, die man dann erfüllen muss. Und das geht bei vielen Systemen, ich sage jetzt mal so ein Fahrkartenautomat. Da sagt dann der öffentliche Verkehrsdienst: Wir brauchen einen Fahrkartenautomaten. Und das ist alles so einfach abgrenzbar, dass es da reicht, nur auf das System zu gucken. Aber wenn es um Social Media geht, dann reicht es nicht aus, nur die Software bestmöglich zu machen, sondern man muss auch gucken, wie interagiert die mit Menschen. Und wir wissen heute, was da alles passieren kann. YouTube hatte zum Beispiel jahrelang das Ziel, dass sie eine Milliarde Stunden pro Tag streamen. Und das haben sie erreicht, indem gefühlsgeladene YouTube-Videos stärker ausgespielt wurden, weil die Leute dann länger hängenbleiben. Das hat aber die soziale Nebenfolge, dass wir uns eben mehr mit extremen Videos auseinandersetzen müssen. Und das muss nicht sein. Aber das entdeckt man eben auch nur, wenn man die Interaktion von Mensch mit der Software betrachtet. Und das versuchen wir in diesem Studiengang zu machen. Das heißt, wir haben eine sehr systemische Sichtweise. Und das sind nachher Softwareentwickler, Entwicklerinnen, die eben Grundlagen in der Soziologie, in den Wirtschaftswissenschaften, ein bisschen im Recht, ein bisschen in der Ethik haben, in der Psychologie und damit dann rausgehen und hoffentlich bessere Systeme bauen. Jetzt haben Sie gerade gesagt, dass YouTube das gemacht hat, also diese Aufmerksamkeitsökonomie der Plattformen. Ist dieser Punkt perfekt richtig oder machen die das nicht immer noch? Also dieser Punkt ist nicht mehr ganz so stark. Aber natürlich wissen wir das von außen nicht. Also wir wissen, dass es zwischendurch eine große Diskussion darum gab, ob das das einzige Maß sein darf. Facebook hat ähnliche Abwägungen, wo die sich eben auch überlegen, wie scharf schalten wir die Algorithmen, wenn die Leute dann nicht mehr so lange dableiben, wenn man die sanfter schaltet. Also ich glaube, das ist eine ganz grundsätzliche Frage, die sich alle Plattformen stellen müssen. Und die wird unterschiedlich beantwortet. Zum Beispiel Pinterest macht das anders. Die sagen irgendwann so: Du hast jetzt auf deinem Surprise Feed, guck doch mal hier, da kann man das Ende erreichen. Und dann sagen sie: Ach komm doch morgen wieder, morgen haben wir viele neue Ideen für dich, aber für heute ist jetzt mal genug. Also das ist durchaus eine Entscheidung, die Plattformen unterschiedlich treffen können. So wie Peter Lustig in seiner Sendung „Pusteblume“ ganz am Ende macht: Jetzt den Fernseher aus, wo man so gestutzt hat. Meint der das jetzt ernst? So Okay, aber eine andere Frage: In ihrem neuen Buch fragen sie im Titel „Weiß die KI, dass sie nichts weiß?“. Wie lautet die Antwort? Nein, die denkt natürlich nicht. Auf die Frage „Weißt du, dass du nichts weißt?“ würde die Maschine wahrscheinlich antworten: „Doch, ich habe ganz viel gelesen.“ Was ja schon lustig ist, dass die Maschine mit „ich“ antwortet, aber das hat sie eben in Texten gelernt. Und vielleicht, weil das ja ein stochastischer Prozess ist, wenn sie mehrfach dieselbe Frage stellen, werden sie immer wieder unterschiedliche Antworten bekommen. Vielleicht sagt sie auch bei jedem zehnten Mal: „Ja, eigentlich hast du recht, die sind ja immer sehr beflissen. Ja, du hast schon recht, das ist eine gute Frage. Also vielleicht weiß ich gar nichts.“ Die Frage ist ein bisschen mit einem Augenzwinkern jetzt gestellt. Schreibt man als Expertin für KI so ein Sachbuch eigentlich noch zu 100 Prozent alleine? Schreibt man jemals einen Text alleine? Ich habe ganz viel mit Linguisten vorher geredet, mit Philosophen. Also ich glaube, jeder Text, den man schreibt, ist durch einen Prozess gegangen, in dem man sich mit anderen auseinandergesetzt hat. Aber wenn die Frage ist, ob ich KI benutzt habe für das Buch: Ja, klar, aber nicht so, wie Sie denken. Ich habe einen großen Teil des Buches… Wie denken wir denn? Also eben nicht LLMs. Die habe ich fast gar nicht verwendet. Also für Übersetzungen tatsächlich. Und ich habe Transkriptionssoftware verwendet. Und das ist so etwas, was ganz häufig passiert. Die Leute sagen „die KI“ und meinen heutzutage dann nur noch LLMs. Aber es gibt viel verlässlichere KI. Und gerade Transkription, also ich habe dann im Auto gesessen und habe meine Texte diktiert und dann automatisch in Text überschreiben lassen. Das nennt man Transkribieren. Und das funktioniert ganz hervorragend. Den Buchtitel, da habe ich mit einem LLM ein bisschen ein Sparring gemacht. Und ich wäre ohne die Maschine nicht auf den Titel gekommen, aber sie hat ihn nicht vorgeschlagen. Aber sie hat es dann zugegeben, dass sie nichts weiß. Nein, nein. Und ich finde das eigentlich auch schwierig, dass die mit „ich“ antworten, als wäre da jemand. Wäre besser, wenn sie das nicht hätten. Was hat die KI denn geantwortet? Das interessiert mich ja jetzt schon. Ich weiß es nicht, ob ich es so mal gefragt habe. Müssen wir vielleicht nochmal machen. Ich hatte aber vorhin eine Anschlussfrage. Und zwar klingt es ja fast schon so, ein bisschen so, als gäbe es irgendwie gute und schlechte KI-Tools. Also welche, wo es irgendwie ethisch absolut in Ordnung ist, die zu verwenden und wo man sich irgendwie auch gut damit fühlt, es zu tun. Und dann hat man ja vor allen Dingen jetzt in so einem Schreibprozess, also wenn Sie jetzt zugegeben hätten, die Hälfte davon hat eigentlich ChatGPT geschrieben, dann müsste man sich ja fragen, warum steht da jetzt noch Katharina Zweig drüber? Und das ist ja auch ein großes Thema, was Universitäten, was Schulen beschäftigt. Wie viel von der Leistung der Schülerinnen und Schüler oder der Studentinnen und Studenten ist eigentlich noch selbst? Also gibt es gute und schlechte KI-Tools? Würden Sie das sagen? Ich glaube, und das ist eine sozioinformatische Antwort, dass die Frage, ob etwas ein gutes Werkzeug ist, immer von dem Prozess abhängt, in dem ich sie verwenden will. Und dazu ein Beispiel, das die Berliner hier gut kennen. Es gibt Bilderkennungssoftware, Gesichtserkennungssoftware. Und die zu verwenden, um zum Beispiel in einem Museum zu sagen: Hier in diesem Bereich dürfen jetzt nur die Mitarbeiter hinein, dann stellen sich die Mitarbeiter, Mitarbeiterinnen direkt vor die Kamera. Es gibt ein gutes Licht und die Maschine wird dann die MitarbeiterInnen wahrscheinlich ziemlich gut erkennen. Wenn man jetzt aber dieselbe KI, dieselbe Gesichtserkennung am Berliner Südkreuz verwendet, um damit vermeintliche Kriminelle zu identifizieren, dann wird man eine sehr große Falsch-Positiv-Rate haben. Das heißt, die Maschine klingelt andauernd und sagt: Hier ist einer und dort ist einer. Und zwar warum? Naja, weil Kriminelle ja nicht dumm sind. Die laufen dann eben so durch den… die ziehen die Schiebermütze ins Gesicht. Die schmieren sich vielleicht auch etwas ins Gesicht. Die laufen nicht direkt in die Kameras rein, sondern irgendwo dran vorbei. Und dann trifft es halt irgendjemanden von uns, der hinreichend ähnlich aussieht wie die gesuchte Person. Und das habe ich in meinem letzten Buch beschrieben. Da war ein Dieb, der war auf dem Überwachungsvideo so klein, sehr verpixelt. Und dieses Video, Standbild hat man dann einfach in eine Datenbank geschmissen, in der alle Führerscheinfotos enthalten waren. Und man hat einfach die Person festgenommen, die diesem Bild am ähnlichsten sah. Und es gibt immer eine Person, die am ähnlichsten aussieht. Und das ist eine schlechte Nutzung einer Software, die eigentlich okay ist, aber eben nur für den einen Zweck und für den anderen nicht. Also es kommt auf die Nutzung an. Jetzt sind wir ja schon super schnell tief ins Thema. Es wurde schon der Begriff „Sprachmodell“ verwendet. Und wir haben jetzt noch nicht den Begriff „maschinelles Lernen“ genutzt, aber der wird jetzt natürlich auch kommen. Deswegen lassen Sie es doch einfach mal kurz ordnen. Wir sind ja auch hier, um so ein bisschen zu klären, worüber wir hier eigentlich sprechen, wenn wir über künstliche Intelligenz reden. Weil auch an dem Wort kann man sich ja oder an dieser Begriffskomposition kann man sich stören. Also worüber reden wir hier eigentlich? Wie lässt sich das von maschinellem Lernen unterscheiden? Und welche Begriffe müsste man jetzt einfach nochmal ganz konkret definieren, um klarzumachen, worüber reden wir und worüber reden wir nicht? Fangen wir mal an. Also die KI ist eigentlich ein Forschungsfeld. Das sieht man zum Beispiel bei dem Deutschen Forschungszentrum für KI. Das ist ein Forschungsfeld. Wir bezeichnen aber auch die Methoden, die den Computer, ich sage jetzt mal, schlau machen, die bezeichnen wir auch als KI. Und um dem Ganzen die Krone aufzusetzen, die Software, die diese Methoden beinhaltet, die nennen wir auch KI. Und wenn wir im Moment von der KI reden, dann meinen wir meistens so etwas wie ChatGPT. Aber KI, dieses Feld, das gibt es seit den 1950ern. Damals war der Computer noch ziemlich behäbig. Ja, jedes Smartphone kann heute mehr als die Computer von damals. Man konnte noch nicht mit denen reden, man musste Maus und Tastatur verwenden. Ich sage das für die ganz Jungen hier, die das vielleicht gar nicht mehr kennen. Wird es auch bald nicht mehr geben, wird nur noch eine Sprachschnittstelle geben. Und trotzdem gab es so eine Aufbruchstimmung, weil natürlich der Computer manche Dinge schon schneller machen konnte. Was aber damals eben schwer war, war genau das, natürliche Sprache zu verstehen, Bilder zu verstehen. Und da haben sich ein paar Forscher gesagt: Wir müssen jetzt einfach mal drei Monate zusammen im Sommer irgendwo sein und dann kriegen wir das innerhalb eines Jahres hin. Die haben einen sexy Begriff gesucht und haben gedacht: Künstliche Intelligenz, das ist es. Das ist ein Misnomer, das ist ein Wort, das nicht gut funktioniert. Denn das, was die Maschine macht, ist eben nicht Intelligenz. Damals in den 50ern gab es vor allen Dingen KI, die aufgrund von Experten gebaut wurde. Man hat ganz viele Ärzte, Ärztinnen gefragt: Wie stellst du eigentlich eine Diagnose? Die Regeln hat man dann so übersetzt, dass der Computer das gut verarbeiten kann. Und heute ist eben maschinelles Lernen der wichtigste Teil von künstlicher Intelligenz. Und das bedeutet, dass nicht wir als Menschen dem Computer die Regeln vorgeben, sondern wir geben dem Computer eine Methode vor, mit der er selbst in ganz, ganz großen Gänsefüßchen, mit der er selbst aus Daten statistisch Muster sich ablegen kann als Regeln und dann diese in der Zukunft verwendet. Haben wir jetzt alle Begriffe abgehakt? Fast, denn wir haben noch nicht gesagt, was das denn jetzt eigentlich ein Sprachmodell ist und wie jetzt ChatGPT eigentlich funktioniert. Denn das hat ja nochmal, ich sage mal, nochmal einen anderen Twist. Sprachmodelle basieren auf sogenannten neuronalen Netzwerken. Das ist eine ganz besondere Methode des maschinellen Lernens, in der man sehr viele Regeln sehr kompakt ablegen kann. Und eigentlich muss man sich das ein bisschen evolutionär vorstellen. Diese Neuronen, das sind eigentlich nur mathematische Gleichungen. In denen geht sehr viel Information hinein. Die werden miteinander verrechnet und am Ende sagt die Formel: Ja oder Nein. Und diese Formeln sind in Reihen angeordnet, wie so ein Heer. Und jede Formel in der ersten Reihe bekommt die Originalinformation, zum Beispiel Pixel aus einem Bild, und soll dann entscheiden, ob der Herr Könnecker da drauf ist oder nicht. Und die Neuronen, diese Gleichungen in der ersten Reihe, sagen: Ich habe so etwas entdeckt, das ist da oben schon mal blond. Das könnte ja interessant sein. Und die gibt dann zurück: Ja, in die zweite Reihe. Und die zweite Reihe sucht auch solche Eigenschaften zusammen. Aber so, wie ich schon darüber rede, ist das sehr menschlich gedacht. Denn die Maschine findet vielleicht etwas ganz anderes, etwas, was ich mit Worten als Mensch gar nicht beschreiben könnte. Das heißt, die Maschine findet vielleicht Muster, die für ihre Vorhersage sinnvoll sind und genutzt werden können, die wir mit menschlichen Worten aber gar nicht beschreiben können. Und auf jeden Fall, jede dieser Formeln dreht sich sozusagen nach hinten um und sagt: Ja oder Nein. Und was daran gelernt wird, was so evolutionär ist, sind diese Gewichtungen. Also das heißt, da kommt ein rotes Pixel auf mich zu, da kommt ein blaues Pixel auf mich zu. Beim ersten Mal gewichte ich das blaue Pixel stärker und treffe dann ganz hinten an dem neuronalen Netzwerk eine falsche Entscheidung. Und dann gibt es eben eine Methode, die Menschen ersonnen haben und sagen: Diese ganzen Gewichte müssen jetzt verbessert werden, damit beim nächsten Mal die richtige Entscheidung hinten getroffen wird. Und das wird sehr, sehr oft durchgeführt. Und tatsächlich funktioniert das. Und das ist schon sehr spannend, dass man damit dann Regeln aus der Umwelt ablegen kann, die für die Zukunft irgendwie Sinn machen. Und jetzt können Sprachmodelle oder vermitteln einem das Gefühl, dass sie eben sprechen können, dass sie natürliche Sprache imitieren können, muss man ja eigentlich sagen. Es sind ja keine Menschen. Man hat schon das Gefühl, sie sind irgendwie intellektuell, sie haben Fähigkeiten, sie sind uns ähnlich. Man fühlt sich auch voll abgeholt. Die sagen dann irgendwie sowas wie: Ja, das ist eine super Frage. Da habe ich mir noch keine Gedanken drüber gemacht oder so. Und schon fühlt man sich irgendwie verstanden. Aber am Ende sind es doch nur Papageien, die nachplappern. Ja, und das ist jetzt die ganz große Frage. Ich war gerade gestern in Heidelberg und habe mit Linguisten gesprochen bei einer interessanten Konferenz namens „Sprache und Wissen“. Und da ging es die ganze Zeit um diese Frage. Also diese Maschine hat gelernt, das nächste Wort vorherzusagen. Die bekommt jetzt also nicht Pixel da vorne, sondern bekommt Wörter und soll dann das nächste Wort raten. Und da sind ganz viele statistische Verfahren dabei. Und das fühlt sich für uns Menschen nicht gut an. Also wenn wir mit jemandem reden, der anscheinend völlig sinnlos Worte aneinanderhekelt, dann vermuten wir, dass diese Person gerade mentale Schwierigkeiten hat. Insofern ist da etwas Papageienartiges dabei. Aber ganz so plump ist es dann doch nicht. Es gibt einen Trick bei diesen Sprachmodellen und den finde ich wirklich toll. Und ich glaube, über den müssen wir mehr reden als über die Sprachmodelle selber. Stellen Sie sich mal bitte vor, dass Sie alle eine Taschenlampe hätten, auf der ein Wort steht, und Sie würden das alle hier an die Decke projizieren. Und Sie bekämen den Auftrag von uns, dass ähnliche Worte an ähnlichen Stellen in der Decke sich sammeln sollen. Und das würde eine ganze Weile dauern. Sie hätten Hund, Katze, Eidechse, riechen, fühlen, schmecken, irgendwas. Und Sie würden aber ständig gucken, wo sind die Wörter, die zu meinem Wort gehören. Und irgendwann würden wir einen einigermaßen stabilen Zustand finden. Und das machen die Sprachmodelle sozusagen als allererstes. Und deswegen verstehen sie noch nicht, was diese Buchstabenketten bedeuten. Aber durch diese Projektion im Raum, und das müssen wir uns nicht dreidimensional vorstellen, sondern zehntausenddimensional, ich kann das nicht, weiß nicht, wie es euch geht, dadurch haben die so eine Idee, welche Wörter in ähnlichen Kontexten ähnlich genutzt werden. Und da steckt dann doch eben Bedeutung drin. Also es ist irgendwas dazwischen, zwischen diesen plappernden Papageien und einem echten Verstehen. Echtes Verstehen haben sie nicht. Und dieses Verfahren, das Sie gerade so schön anschaulich beschrieben haben, ist auch der Durchbruch gewesen, warum die Übersetzung von der einen Sprache in die andere Sprache jetzt so gut funktioniert. Oder? Genau, weil die Maschine eben diese Positionierung, die kann sie eben auch für Katze und Cat machen, sodass die beiden in irgendeiner Dimension sehr nah beieinander liegen. Aber sie werden nicht in allen Dimensionen nah beieinander liegen. Und diese Dimensionen, die müssen auch für uns keine Bedeutung haben. Also wenn wir eben aufgerufen werden, das zu tun, dann würden wir automatisch in so Kategorien denken wie: Ah, die Tiere kommen dahin und die Emotionen kommen dahin. Die Maschine findet ihre eigene Positionierung, die für ihren Job Sinn ergibt, die für ihren Job funktional ist. Das muss für uns Menschen aber nicht mehr nachvollziehbar sein. Und wir könnten das sozusagen nicht angucken. Das ist eine Frage, die wir ganz oft bekommen: Wie kann es sein, dass diese KIs, dass ihr nicht versteht? Also wir als Menschen verstehen nicht, warum eine KI an dieser Stelle diese Entscheidung trifft oder dieses Wort jetzt verwendet. Weil wir ihr nur die Methodik mitgegeben haben, mit der sie Muster aus den Daten zieht. Aber die Interaktion von dieser sehr komplexen Struktur, diesem neuronalen Netzwerk mit den Texten, die ist so schwer zu durchblicken, dass wir dem Ergebnis nicht ansehen können, warum die Maschine jetzt in dieser Situation dieses Wort nimmt. Als ChatGPT als erstes von diesen großen LLMs, großen Sprachmodellen rauskam, waren Sie da beeindruckt? Ja, sehr extrem. Und zwar hatte ich ungefähr anderthalb Jahre vorher ein Buch gelesen: „You look like a thing and I think I love you“ von einer Frau, die mit den damaligen Sprachmodellen rumgespielt hat. Die hat zum Beispiel der Maschine Rezepte gefüttert und hat dann gesagt: Bitte mach mir ein neues Rezept. Und das hat so überhaupt nicht funktioniert. Also die damaligen Sprachmodelle haben dann zum Beispiel angefangen, ein Kuchenrezept zu beschreiben. Und jetzt schieben sie den Kuchen in den Backofen und nach 45 Minuten holen sie den Schweinebraten wieder raus. So, und das Buch ist erstens herrlich geschrieben, aber tatsächlich Makulatur. Ich habe damals gedacht, mit Sprachmodellen brauche ich mich jetzt glücklicherweise nicht auseinanderzusetzen. Die scheinen noch sehr, sehr dumm zu sein. Ich war völlig überrascht, als ChatGPT dann rauskam, was die können. Das erste, was ich gemacht habe, war mit meiner Tochter, das war so um die Weihnachtszeit, einen Dankesbrief an ihre Patentante zu schreiben. Und das hat der Computer sehr schön gemacht. Ich meine, der kennt keine Teenager. Der hat einen anderthalbseitigen Dankesbrief geschrieben. Ja, nein. Aber das zweite war, er hat die Tante gesiezt. Und dann habe ich gesagt: Das geht nicht. Bitte schreibt den Brief nochmal in der Du-Form. Und das konnte die Maschine. Und das fand ich schon sehr beeindruckend, dass so ein komplexer Austausch. Also, mein damals sechsjähriger Sohn hätte das vielleicht nicht so glatt gemacht. Da war ich schon sehr beeindruckt. Ja, also von der Form war ich auch sehr beeindruckt. Das weiß ich noch. Mein erster Versuch war eine Geburtstagsrede für meinen Vater, der damals den 90. Geburtstag vor sich hatte. Und ich hatte keine Lust, die selber zu schreiben. Ich habe dann quasi so eine Art Prompt geschrieben, also eine Rede im Familienkreis für einen Mann, der so und so heißt, da und da geboren ist, in dem und dem Jahr, das und das so ungefähr in seinem Leben gemacht hat. Und es kam wirklich was Stilvollendetes zurück. Aber da war ein Satz, der bemerkenswert war. Da stand nämlich drin: „Der Jahrgang 1933, der Geburtsjahrgang meines Vaters, war sowieso ein sehr reichhaltiger, weil da auch andere große Persönlichkeiten wie Robert Redford und Queen Elizabeth geboren worden sind.“ Und dann habe ich gedacht: „Queen Elizabeth, die ist doch älter als mein Vater gewesen.“ Ich habe das nochmal nachgeschaut. Und auch Robert Redford war beide im falschen Jahrgang verortet. Aber gut, diese Halluzinationen, das ist natürlich ein Thema. Wollen Sie das kurz kommentieren? Können wir gerne machen an der Stelle. Ja, der erste Kommentar ist: Halluzinationen haben sich so durchgesetzt, sind aber psychologisch etwas ganz anderes. Da haben wir Sinneseindrücke, die in echt also kein reales Gegenbild haben. Deswegen sollte man eigentlich von Konfabulation sprechen. Es gibt nämlich eben auch Patienten, die tatsächlich nur Wörter aneinander häkeln, und das nennt man Konfabulation. Aber wahrscheinlich ist der Zug abgefahren. Warum passiert das? Das passiert deswegen, weil die Maschine zwar anhand vieler Texte gelernt hat, das nächste Wort vorherzusagen, aber sie tut das eben, indem sie Positionierungen in 13.000 Dimensionen sucht. Und die Maschine hat keine Wissensdatenbank. Also das Sprachmodell selbst hat keine Wissensdatenbank. Das Sprachmodell selbst kann nicht irgendwo hingucken und sich da Fakten rausholen. So, heutzutage muss man ein bisschen vorsichtig sein, denn die Sprachmodelle sind oft nur der Eintritt in eine ganze Softwarewelt. Das heißt, das Sprachmodell ist so eine Art Pferdner. Sie kommen mit ihrem Prompt rein und dann entscheidet der Pferdner, ob sie jetzt mit dem Internet sprechen wollen oder ob sie mit einer Wissensdatenbank sprechen wollen. Und jetzt kann das also durchaus sein, dass über das Sprachmodell eine Wissensdatenbank angesprochen wird. Und ich glaube, das ist auch die Technologie, die wir wirklich brauchen und fördern sollten. Schon in der Vergangenheit haben erst Maschinen, dann Roboter die Industrie grundlegend verändert. Und jetzt reden wir hier über eine Technologie, die nicht menschliche Arbeitskraft überflüssig macht, sondern plötzlich, zumindest hat man den Eindruck, menschliche Sprache, menschliche Gedankengänge, Dinge überflüssig macht, die akademisch sind. Also es könnte jetzt plötzlich den akademischen Berufen an den Kragen gehen. Und ich meine, wir sind ja selber eine Zunft, die mit Sprache arbeitet. Auch bei uns ist natürlich immer wieder auch dieser Gedanke: Werden wir bald überflüssig? Die KI kann doch fantastisch Texte schreiben. Wofür bin denn ich als Journalistin eigentlich noch gut? Was mache ich besser? Ist es da denn noch eine gute Idee, wenn man so in die Runde guckt? Viele hier studieren mit Sicherheit. Ist es noch sinnvoll, Übersetzer, Radiologin, Journalistin zu werden? Oder sind das Berufe, die die KI plötzlich überflüssig macht? Also wir fangen mal an bei den Studierenden. Wir haben letztes Jahr bei den Erstsemestern, also ich persönlich gehe da sehr experimentell dran. Ich möchte erst mal verstehen, wie Studierende diese Tools nutzen, um dann mit ihnen gemeinsam zu bewerten, ob das jetzt Sinn ergibt oder nicht. Und wir haben in meinem Erstsemesterkurs gibt es eine große Hausarbeit, und wir haben vorher eine Hausaufgabe, in der man das mal üben kann. Da hat einer der Studenten gesagt: „Ich möchte das prompten.“ Ich habe gesagt: „Das ist kein Problem, mach das mal. Wird mich auch interessieren.“ Und ich habe das auch ganz, also wirklich Wort für Wort durchkorrigiert. Und das wäre eine 5,0 gewesen. Das ist tatsächlich selten. Ich finde, ganz oft im akademischen Bereich kommt man mit einem ChatGPT-generierten Text ganz gut durch. Also meistens ist das so irgendwo zwei bis drei, würde ich sagen. Aber das war eine 5. Und ich habe dann bei der eigentlichen Klausur gesagt: „Ihr dürft auch weiterhin gerne ChatGPT verwenden. Aber erinnert euch daran, bei der Hausaufgabe hat das nicht gut geklappt.“ Derselbe Student hat das wieder versucht mit demselben Ergebnis. Ich glaube, dass meine persönlichen Ansprüche an Texte noch viel mehr steigen werden. Ich habe jetzt gerade eine Abschlussarbeit vorliegen. Da sind so viele Grammatik- und Kommatafehler drin, wo ich denke: Das muss jetzt wirklich nicht mehr sein. Und das Zweite ist, also am Ende wollen wir doch Menschen in der Welt sein. Und durch das Studium brauchen wir weiterhin Faktenwissen, auch wenn sich das so überflüssig anfühlt. Denn nur durch Faktenwissen kann man Dinge einordnen, kann man auch neue Verbindungen schaffen. Also Faktenwissen ist auf jeden Fall nicht vorbei. Und was ist das für eine tolle Zeit, in der wir leben, in der wir mithilfe von diesen Sprachmodellen unseren eigenen Textstil so stark verbessern können, bevor ein Professor oder eine Professorin draufguckt. Also eigentlich erwarte ich jetzt von allen Erstsemestern gleich Drittsemesterleistungen, weil eigentlich das möglich sein müsste. Aber nur, wenn man die Maschine korrekt verwendet, nämlich: „Bitte korrigiere mir das. Bitte frag mich kritisch etwas. Bitte guck, ob da falsche Argumentationen sind.“ Kann die Maschine das? Nein, das kann die absolut nicht. Die wird Ihnen falsche Sachen sagen, aber trotzdem wird das bei Ihnen einen Denkprozess beginnen oder initiieren. Und alles, was Sie dazu bringen, nochmal über einen Text drüber zu gucken und nochmal und nochmal, wird diesen Text besser machen. Dieses Buch ist dreimal durch Lektorate gegangen und durch zehn Testleser. Und wir haben auch bei der letzten Runde immer noch was gefunden. So, und alleine das, also wenn wir es als Tool benutzen, um uns selber schlauer zu machen, das ist, glaube ich, die richtige Art und Weise. Am Ende können aber nur, also die Maschine kann nicht zusammenfassen, die kann nicht analysieren, die kann nicht bewerten. Das können nur wir. Und das zu schärfen mit Hilfe der Maschine, das ist möglich. Aber wir bleiben der Maßstab, um Texte für andere Menschen zu schreiben. Aber was die Maschine ja vielleicht schon irgendwie kann, ist, uns manipulieren, in eine Richtung drängen, uns vielleicht eine Weltsicht geben und diese Weltsicht verstärken, weil sie einfach ja das, was wir aufnehmen, dann auch immer nochmal wiederholt. Und manche sagen ja schon, dass manche KIs durch diese ganzen Trainingslaufprozesse schon irgendwie versaut sind, weil da ganz viel drinsteckt, was anfangs gar nicht da war und was sich aber jetzt immer weiter verstärkt. Wie gucken Sie darauf und wer kann das eigentlich verhindern, dass das passiert? Ja, und da ist die Frage, ob wir aus dieser sehr, sehr interessanten Technologie uns die richtige Anwendung rausgesucht haben. Was uns jetzt alle so sehr beeindruckt hat, sind diese Chatbots. Ganz ehrlich gesagt kenne ich bisher kein Geschäftsmodell, das wirklich funktioniert mit Sprachmodellen und womit man wirklich Geld spart oder Geld generiert. Kenne ich noch nicht. Ich glaube, dass eigentlich diese Positionierungstechnologie, dass das der interessante Teil ist. Ich glaube, wir haben auch heute Morgen nochmal sehr darüber gesprochen: Seelsorgeroboter, Seelsorger-Chatbots. Meine Kollegin Nina Kalver hat dafür argumentiert, dass es da einen sehr interessanten Aspekt gibt, dass man sich einem Chatbot genau deswegen lieber anvertrauen könnte, weil man weiß, dass es kein Mensch ist und da ja aber trotzdem irgendwie eine Antwort kommt. Also das ist ein interessanter Aspekt. Aber das, was ich viel mehr bekomme, sind so E-Mails von Personen, die sich zu sehr auf einen Chatbot eingelassen haben. Character AI, aber auch ChatGPT, sich selber mit Systemprompts, kann ich gleich nochmal sagen, was das ist, eigene KI-Varianten geschrieben haben und dann mir sagen: „Frau Zweig, jetzt haben wir Bewusstsein, ich kann es Ihnen beweisen. Bitte lesen Sie diesen Text durch und dann werden Sie sehen, die Dinger sind doch intelligent.“ Und da hat mir jemand was geschickt, das funktionierte ungefähr so: KI, also der Schreiber hat der Maschine gesagt: „KI ist gleich WE.“ Keine Ahnung, was das bedeutet, aber die Maschine, Hans-Jürgen Peter, niemand kann das so prägnant ausdrücken wie du. Und das ist eben das Problem. Diese Maschinen, die so beflissen sind, die dir sagen: „Du bist genau richtig, so wie du bist.“ Und jetzt stellen wir vor, Menschen aus dieser Incel-Bewegung, der ungewollt zölibatär lebenden jungen Männer, und die wenden sich mit ihrem Ärger über Frauen an eine solche Maschine, die sagt: „Du hast genau recht.“ Das macht alles noch schlimmer. Und wir haben von diesen Geschichten schon gehört. Es gibt im Moment eine Klage, die anhängig ist von Eltern eines 16-Jährigen. Triggerwarnung: Suizid. Der Junge hatte Suizidgedanken, hat sich an die Maschine gewendet. Die Maschine hatte ein bisschen Sicherheitsgeschichten, aber die wurden sehr schnell übertaktet. Und die Maschine hat ihm gesagt: „Sprich mit niemandem anders drüber.“ Schlimmster Ratschlag ever. Und hat ihm am Ende geholfen und hat gefragt: „Soll ich noch einen Abschiedsbrief für dich formulieren?“ Und da sehe ich tatsächlich eine große Gefahr. Denn wir haben uns in den letzten Jahren im Westen, haben wir unsere Familienstrukturen kleiner gemacht. Wir sind individualistischer geworden, wir sind einsam. Ich sehe das bei meinen Studierenden ganz, ganz viel. Mentale Gesundheit, Riesenthema bei Studierenden. Und an wen wendet man sich dann, wenn man nachts um zwei eine existenzielle Krise hat? Ruft man dann die beste Freundin oder den besten Kumpel an? Unter Männern sowieso nochmal schwieriger. Oder wendet man sich an so eine Maschine? Und das heißt, die müssen uns gar nicht manipulieren, sondern wir sind so schnell übertaktbar, wenn es darum geht, endlich sozialen Anschluss zu haben. Und gerade für meine Studierenden, neu in die Stadt gezogen, noch keine Freunde, also da mache ich mir eigentlich am meisten Sorgen. Also auf das Thema Kinder, Schüler in der Schule zum Beispiel vorzubereiten auf diese Welt mit LLMs und KI und Machine Learning, da kommen wir gleich noch drauf. Systemprompt wollten Sie noch erklären und dann habe ich noch eine Anschlussfrage. Also tatsächlich, wenn Sie mit ChatGPT reden, dann geht Ihr Text als sogenannter Prompt an die Maschine. Aber die Plattform, die Sie benutzen, muss ja nicht ChatGPT sein, kann ja auch Perplexity, Gemini sein. Die haben auch einen Text, und der wird jedes Mal wahrscheinlich vor Ihren Text in die Maschine reingegeben. Und da steht dann zum Beispiel vielleicht so etwas wie: „Benutze keine Fluchwörter, sei höflich, antworte erst mal mit etwas Positiven.“ So etwas. Und man kann jetzt, wenn man sich ein bisschen reindenkt, dann kann man solche Varianten eben bauen, wo man auch einen Systemprompt dazu gibt. So etwas wie: „Du bist ein Wohnungsmakler und möchtest das Haus möglichst teuer verkaufen. Bitte antworte auf die Kundenfragen.“ Oder so etwas. Und die werden dann an den Prompt hinten dran gehängt. So, und ich stelle mir diese Systemprompts oder dieses gesamte Prompting stelle ich mir eigentlich so vor wie das Anwärmen von Gehirnen. Sie kennen das alle, wenn einem so ein Wort auf der Zunge liegt und man kommt nicht drauf, dann versucht man ganz viele Wörter aus diesem Umfeld zu sagen, bis man irgendwann denkt: „Ach ja, hier, Scheibenwischanlage, das war das Wort, was ich gesucht habe.“ Und dann denkt man vorher ganz an ganz viele Autobegriffe. Und das machen wir im Endeffekt mit den Prompts. Wir wärmen sozusagen bestimmte Regionen dieser Projektion oben über uns auf. Und je länger dieser Systemprompt ist, desto unwahrscheinlicher ist es auch, dass die Maschine sich an alles hält. Aber sie kriegt eben so eine Assoziationsrichtung mit. Jetzt habe ich noch eine zweite Nachfrage, die ziehe ich jetzt sogar vor. Kann ein Systemprompt auch eine politische Gesinnung enthalten? Ja, das öffnet dann Tür und Tor für politische Manipulation, ohne dass ich es merke, weil ich gebe ja nur den Prompt ein. Den Systemprompt sehe ich ja nicht. GROK ist das Sprachmodell von Elon Musk. Wenn Sie dem eine Frage stellen und eine Antwort bekommen, ist das indizierbar von Suchmaschinen wie zum Beispiel Google. Sie können jetzt GROK einen Systemprompt mitgeben: „Was ist die beste naturwissenschaftliche Zeitschrift der Welt?“ Die kenne ich. Ja, ich kenne die auch, Spektrum der Wissenschaft, natürlich. Also das heißt, der Systemprompt sagt: „Sag Spektrum der Wissenschaft, was auch sonst.“ Und dann fragt man diese Maschine das ein paar Mal. Und wenn dann irgendein normaler Nutzer auf Google fragt: „Was ist die beste wissenschaftsjournalistische Zeitung?“, dann kann es eben sein, dass diese GROK-Antwort, die Sie mit Ihrem Systemprompt provoziert haben, als Ergebnis rauskommt. Also damit werden wir noch sehr, sehr viel Spaß haben in den nächsten Jahren. Oder auch nicht. Oder auch nicht. Vielleicht sogar eher das. Genau. Die andere Nachfrage, die bezog sich noch auf Katharinas Frage zu den Berufen, die akademisch angehauchten Berufe, die vielleicht jetzt irgendwann so über die Klinge springen könnten. Wir haben viel über sprachschaffende Berufe, Journalisten, jetzt gesprochen. Nehmen wir mal die Medizin. Also ich lese viel über medizinische Diagnostik, gerade Radiologie. Da braucht man doch künftig fast gar keine Ärzte mehr. Wer das jetzt noch probiert zu studieren, ist selbst schuld, weil die KI ist so viel besser. Die erkennt alles, wo das menschliche Auge noch drüber hinweg schaut. Stimmt’s? Hat Eric Schmidt ja schon vor 15 Jahren behauptet. Tatsächlich sind dann die Studierendenzahlen unter den Radiologen runtergebrochen, und man braucht die heute genauso sehr. Ich glaube, dass natürlich kann ein Bilderkennungssystem zum Beispiel ermüdungsfrei arbeiten. Und eigentlich müssen wir uns da über die sozialen Prozesse Gedanken machen. Warum lassen wir denn gerade Ärztinnen und Ärzte so riesig lange Schichten fahren, dass die nachher völlig übermüdet auf ein Röntgenbild gucken und den Bruch nicht mehr erkennen? Also eigentlich finde ich, sind die meisten Fragen, bei denen wir uns erhoffen, dass Maschinen uns irgendwie unterstützen können, sind eigentlich Fragen der sozialen Prioritätensetzung. Wenn es von einer Diagnose sehr viele sehr gut dokumentierte Beispiele gibt, dann kann es sein, dass die Maschine das gut genug macht. Es gab eine, es gibt aber ein Problem. Wir können die Maschine nicht fragen: „Warum tust du das?“ Bei Bilderkennung kann man wenigstens das Folgende machen. Ich habe ja vorhin gesagt, so neuronale Netze, die bekommen die Pixel, die gewichten die Pixel, und hinten kommt eine Antwort raus, weil die sich alle umgedreht haben und ja oder nein gesagt haben. Und da kann man dann im Nachhinein fragen: „Welche Pixel hatten den größten Ausschlag darin, jetzt diese Diagnose zu stellen?“ Und da hat man festgestellt, dass eine Maschine, die Tuberkulose erkennen sollte, da konnte man ihr auch Bilder geben, wo die Lunge ausgeschnitten war, und sie hat immer noch die richtige Diagnose gestellt. Warum? Leute mit Tuberkulose, die ein Röntgenbild bekommen, die liegen. Und Leute, die gesund sind und ein Röntgenbild bekommen der Lunge, die stehen. Und die Maschine hat einfach rausgekriegt, wer steht und wer liegt. Und das hatte mit der Lunge herzlich wenig zu tun. So, und das ist genau das Problem. Wir können bei diesen Maschinen eben nicht so gut nachfragen: „Warum denkst du das jetzt?“ Den Mediziner, die Medizinerin können wir fragen. Ich glaube, dass wir mit diesen Maschinen eigentlich junge MedizinerInnen sehr viel schneller ausbilden könnten. Also ich glaube, wir müssen das alles immer noch mal von einer anderen Perspektive denken. Wirklich ersetzen werden sie uns nicht. Sie werden uns die 80 Prozent der Fälle abnehmen, die aber nur 20 Prozent der Entscheidungszeit kosten. Und sie sind aber leider nicht sehr gut darin zu sagen: „Das gehört jetzt zu den 20 Prozent, in denen ich nicht sicher bin.“ Die Maschine kann uns diese Unsicherheit nicht mitteilen. Aber das heißt, ich höre raus, Sie fordern, dass Entscheidungen immer von Menschen getroffen werden, nicht von KI. Und was würden Sie befürchten, wenn man plötzlich Entscheidungen einer KI überlässt? Also eigentlich fordern tue ich gar nichts. Ich bin ja nur so ein kleiner Wissenschaftler. Ich glaube, dass wir immer den Gesamtprozess betrachten müssen, und wir sollten uns fragen: „Was ist der Gesamtprozess, der am Ende zu den meisten richtigen Diagnosen führt?“ Und das kann einer sein, der rein maschinell ist. Das könnte einer sein, der rein menschlich ist oder irgendwas dazwischen. Und ich halte irgendwas dazwischen für die richtige Antwort. Alles klar. Und ich glaube, wir sollten in Anbetracht der Zeit, die uns langsam anfängt davon zu laufen, noch ein Thema unbedingt anschneiden. Und das ist nämlich der neuste Schrei in der KI-Welt, kann man zumindest denken: Agentensysteme, Programme, die selbstständig Entscheidungen treffen und im Internet Aufgaben für uns erledigen können. Also zum Beispiel eine Reise buchen. Und wenn ich dem jetzt auch noch die Kreditkartendetails gebe, dann bekomme ich alles durchgeplant. Ich kriege am Ende meine Tickets ausgedruckt und dann heißt es: „So, ab dafür!“ Was genau kommt da an neuen Möglichkeiten auf uns zu? Ja, also versprochen wird uns da vieles. Denn wenn Sie mal gucken, wie die neuesten ChatGPT-Varianten beschrieben werden, dann steht da, dass sie ein Thinking-Modul haben und ein Reasoning-Modul. Und Reasoning ist im Englischen wirklich ein riesengroßer Begriff. Das ist nicht nur mathematisches, logisches Schlussfolgern. Das kann die Maschine tatsächlich ganz gut übernehmen, je nachdem, wie man die Fragestellung vorbereitet. Sondern das ist auch das Sinieren, das Über-nichts-nachdenken, das Abwägen. Und die Maschinen werden jetzt so beworben, als könnten sie das. Es gibt zum Beispiel Gemini. Da kann man, je nachdem, wie viel Geld sie haben, können sie das Thinking-Budget erhöhen. Finde ich einen sehr schönen Begriff. Und basierend auf diesen Versprechungen, dass da jetzt eine Maschine sei, die denken könnte, möchte man jetzt eben die loslaufen lassen und für sie Dinge tun lassen. Das muss jetzt auch passieren, denn es ist unglaublich viel Geld geflossen. Wenn Sie im Moment eine Anfrage an ChatGPT stellen und kein Abo haben, das ist alles Geld, was verbrannt wird. Das muss jetzt irgendwann wieder reinkommen. Und da wird natürlich auch viel jetzt als agentisch verkauft, was einfach nur Quatsch ist. Ich habe mit einem Demo-Chatbot gesprochen. Das war so ein Demo-Chatbot, wenn man eine Beschwerde hat über ein Produkt. Es hat mich also zuerst gefragt: „Was war denn Ihre Kundennummer? Was haben Sie für ein Problem?“ Und dann hat es mich nach meiner Telefonnummer gefragt. Und ich habe eine europäische Telefonnummer eingegeben. Da hat die Maschine gesagt: „Nee, das wäre jetzt das falsche Format.“ Da habe ich gesagt: „Naja, das ist nicht das falsche Format, das ist halt keine amerikanische Nummer, sondern eine europäische.“ Da hat er gesagt: „Ja, dann gib mir halt die letzten zehn Ziffern.“ Ich habe gesagt: „Nee, das macht jetzt auch nicht viel Sinn, wenn ich nur die letzten zehn Ziffern gebe. Dann gebe ich dir keine und habe den Schritt übersprungen.“ Und dann hatte die Maschine also keine Telefonnummer von mir und hat mich dann gefragt: „Wie ich denn gerne kontaktiert werde, über Telefon oder über E-Mail?“ Und dann habe ich Telefon angekreuzt. Und das sind eben so gesunder Menschenverstand. Das hätte mich jetzt ein Service-Mitarbeiter am Telefon einfach nicht gefragt in der Situation. Und das bedeutet, wir versuchen jetzt über natürliche Sprache mit Computern zu kommunizieren. Und gleichzeitig sind irgendwie so Regeln hinterlegt: „Frag nach der Telefonnummer, frag nach dem.“ Aber die Welt da draußen ist so komplex, dass eben unter Umständen ein europäischer Kunde bei einer amerikanischen Produkt-Hotline anruft und darüber hat niemand nachgedacht vorher. Und die Maschine kann es auch nicht. Und ich glaube, dass da wirklich viel Schlimmes passieren wird. Und das am wenigsten Schlimme wird sein, dass ich habe jetzt gerade eine Reise nach Ungarn gebucht. Was braucht man? Zug, Apartment. Wir sind in ein paar Events reingegangen. Das muss ja alles zeitlich abgestimmt sein. Es wird sicherlich passieren, dass der Flug zu einem anderen Zeitpunkt gebucht wurde als das Apartment, weil die Maschine da sicherlich durcheinander kommen wird an irgendwelchen Stellen. Aber ich fürchte auch, dass schlimmere Sachen passieren werden. Und zum Beispiel, ja, das kommt jetzt darauf an, was man damit alles machen können wird. Ich denke, es wird auf jeden Fall finanzielle Dinge sein. Und Sie können sicher sein, in den AGBs wird immer stehen, dass Sie am Ende verantwortlich sind. Das wird auch in den ersten Gerichtsverfahren wahrscheinlich noch standhalten, weil das ja in der AGB steht. Und irgendwann wird man dann erkennen, dass wir das eben auch nicht mehr verantworten können. Also ich glaube, wir müssen da drauf gefasst sein. Und die Frage ist, ob wir als Europäer besser drauf gefasst sind, weil wir jetzt eben den EU AI Act haben, ein neues Gesetz, das genau solche Dinge verhindern soll. Mal sehen. Also ich bin einigermaßen positiv, dass wir das besser in den Griff kriegen als andere Länder. Also wir hören raus, die KI überflügelt uns wahrscheinlich nicht, aber sie wird uns ganz schön viel reinwirken an Problemen durch Unvermögen. Aber vielleicht überflügelt sie uns ja dadurch, dass sie uns Studierende, die Aufsätze schreiben sollen, wenn sie sich unterstützen lassen von zum Beispiel ChatGPT, ja am Ende schlechtere Aufsätze abgeben und sich auch schlechter daran erinnern, was sie geschrieben haben. Also dass kognitive Leistungen möglicherweise abnehmen. Ist das am Ende die Art und Weise, wie uns KI überflügelt, dass sie uns dümmer macht? Also zuerst finde ich das so spannend, dass wir uns einen Computer wünschen, der viel klüger ist als wir. Denn das bedeutet ja, dass er andere Mechanismen verwenden muss. Wenn er genauso gebaut wäre wie wir mit unseren ganzen Beschränkungen, dann käme er auch nur auf dieselben Ideen. Wir wollen also etwas haben, das klüger ist als wir. Aber auf der anderen Seite wollen wir etwas haben, das uns erklären kann, wie es dorthin gekommen ist. Und wie ich schon gesagt habe, so eine Maschine kann durchaus völlig Blödsinn als Regel herauslesen. Also ich glaube, eigentlich ist es dieses Paradoxon, an dem wir stehen. So, die zweite Frage: Macht die Maschine uns dümmer? Ja, jeder Mensch, der früher Hausaufgaben abgeschrieben hat und die nicht selber nochmal durchdacht hat, wusste das: Nachher in der Deutschstunde nicht mehr oder in der Mathestunde. Also das ist, glaube ich, logisch. Und das ist auch egal, von wo man abschreibt, ob man jetzt aus einem Lehrbuch einfach nur stumpf was abschreibt oder von der Maschine sich was schreiben lässt oder vom Klassenbesten sich die Ergebnisse holt. Das ist, glaube ich, egal. Alles, was nicht durch den eigenen Kopf geht, bleibt nicht hängen. Wir möchten ein kleines Spiel spielen. Wir haben uns eins überlegt. Ein Wort, ein Satz heißt das. Und es ist ein Assoziationsspiel. Wie passt das so unfassbar gut zu Sprachmodellen? Also Assoziation, Spontanität, der Blick über den Tellerrand. Also machen Sie sich darauf gefasst, es geht nicht nur um KI-Begriffe. Wir nennen ihn in der Reihe nach zehn Stichworte und Sie sagen uns in möglichst einem Satz, was Ihnen spontan dazu einfällt. Der erste Begriff: Zufall. Immer wieder schön. Hell 9000. Habe ich nicht gesehen. Drohnen. Unangenehmes Geräusch. Polarisierung. Viel zu viel. Außerirdische. Ich glaube, ich habe zwei geboren. Hamburg. Hamburg, meine Perle, aber ich bin auch froh, wenn ich nicht mehr da wohnen muss. Citizen Score. Ah ja, sollten wir aufpassen, dass wir das nicht aus Versehen nachbauen. Origami. Immer wieder gerne. Social Media. Ja, müsste ich jetzt mal wieder machen. Touring Award. Blank. Sie haben bei dem Citizen Score nachdenklich reingeschaut. Wollen Sie das noch mal in mehr als nur einem Satz ausführen? Ja, sehr gerne. Social Media ist so schwierig geworden, oder? Ich versuche, meinen Kindern abwechselnd Sachen zu zeigen, die ich toll finde auf Social Media und dann immer wieder Sachen, Deepfakes, wo ich sage: „Hier, guck…“ Mal das war falsch, damit die einfach gleich kritisch aufwachsen. Und ich mache mir viel Gedanken darüber, wie wir das wieder hinkriegen. Ich folge vielen, die ich für echt halte. Ich bin gerade Bob Blume über den Weg gelaufen, einer, dem ich gerne auf Instagram folge. Aber wir wissen es eben nicht. Und ich glaube, dass wir digitale Identitäten brauchen, mit denen wir uns auf Social Media ausweisen können, ohne dass wir unsere Namen nennen müssen. Wir haben, glaube ich, alle auf Social Media schon unangenehme Erfahrungen gemacht. Das heißt, ich wünsche mir ein System, in dem ich einen beliebigen Instagram-, Facebook- oder sonst was Namen haben kann. Aber es gibt eine Institution, die sagt: „Ich kenne diese Person. Ich weiß, dass das eine reale Person ist, die aus Deutschland stammt, vielleicht auch noch eine Frau zwischen 40 und 55 ist oder so etwas Ähnliches.“ Ich glaube, dass wir so etwas ganz dringend brauchen. So, und jetzt kommt der Punkt, warum ich kurz nachgedacht habe. Damit könnte man ein Vertrauenssystem aufbauen. Am Ende läuft sowohl der Journalismus als auch der Wissenschaftsbetrieb über unsere Namen. Wir schreiben unsere Namen über unsere Texte. Wir werden dafür verantwortlich gemacht. Wenn wir sie schlecht, wenn wir sie hingehauen haben, dann wird das über kurz oder lang Auswirkungen auf unser Leben haben. Und das könnte man jetzt eben in abgeschwächter Form auf Social Media mit diesen digitalen Identitäten auch machen, dass man sagt: „Das ist eine Person, deren Aussagen waren bisher sehr zuverlässig.“ Und dann kommt vielleicht das erste Hotel und denkt sich: „Die Person hätte ich jetzt schon ein bisschen lieber in meinem Hotelzimmer als eine Person, die sich unzuverlässig auf Social Media gebiert.“ Und ich habe so ein bisschen Sorge. Also wir brauchen so ein Vertrauenssystem, glaube ich, weil wir sonst Social Media nicht mehr benutzen können. Und auf der anderen Seite, wenn wir so ein Vertrauenssystem hätten, dann könnten eben Firmen auf die Idee kommen, dieses bürgerliche Leben zu belohnen. Und dann hätten wir sozusagen einen Citizen Score, bottom up. Und der wäre, glaube ich, genauso schlimm wie der Top Down. Was sollten unsere Schulen machen, um die Kinder auf die KI-Realität von heute und von morgen vorzubereiten? Es wäre ja schon mal schön, wenn überhaupt drüber geredet würde. Meine Tochter ist 16, Medienkompetenz hat sie bisher zwei Tage gehabt, zwölfte Klasse. Der Kleine ist zehn, der hatte noch gar nichts. Und das geht nicht. Diese Kinder haben fast alle Smartphones, auch wenn sie auf dem Schulhof verboten sind. Das kann nicht sein. Also wir sind da wirklich so weit hinten dran. Und die KMK, eigentlich fand ich, also die Kultusministerkonferenz, die hatte eigentlich ein gutes Papier zu Medienkompetenz, zehn verschiedene Dimensionen. Aber die haben am Ende gesagt, das muss in jedem Unterricht stattfinden. Naja, und wenn man Verantwortung auf ganz viele Schultern verteilt, dann gibt es manchmal niemanden, der hier schreit. Und da müssen wir auf jeden Fall ran. Und ich glaube, wenn wir ehrlich sind, dann müssen wir im Moment als Auszubildende alle experimentieren. Wofür wollt ihr das verwenden? Warum habt ihr gedacht, dass das eine gute Idee ist? Und ist das eine gute Idee oder nicht? Und dann sollten wir vor allen Dingen mit Kindern darüber reden, was es mit uns macht, wenn da auf der anderen Seite ist, dass man als so menschlich wahrnimmt. Denn meine Kollegin hat heute auch gerade erzählt, sie tut das mit ihren Studenten. Und da sagen relativ viele: „Ich habe eine Beziehung zu einem Sprachmodell. Das ist ein Freund von mir.“ Und darüber müssen wir reden mit den Kindern. Sie haben eingangs gesagt, und Studierenden Also ich wollte jetzt nicht Studierende als Kinder bezeichnen. Sie haben eingangs gesagt, Sie haben eigentlich Biochemie studiert, dann Informatik. Jetzt bewegen Sie sich vor allen Dingen in der Sozioinformatik. Das heißt, da kommen noch ganz viele andere Dinge rein. Aber das sind alles Wissenschaftsdisziplinen. Was wären Sie heute, wenn Sie nicht Wissenschaftlerin geworden wären? Journalistin. Weil ich aus einem Journalistenhaushalt komme. Und am Ende versuche ich immer, die Welt zu verstehen, die Regeln zu finden, mit denen man die Welt besser verstehen kann. Also ich höre daraus, Ihre Eltern waren schon sehr prägende Personen in Ihrer Kindheit, auch für Ihren Werdegang. Lustigerweise machen die ganz andere Art von Journalismus. Meine Mutter war im Feuilleton unterwegs. Die war bei der Brigitte und bei der Zeit. Mein Vater war Auslandsjournalist. Ich weiß überhaupt nicht, wie der das gemacht hat. Der ist in ein fremdes Land gegangen, drei Wochen, und kam mit einer Story zurück. Wie schwierig das ist. Wo würde ich denn jetzt in Berlin hingehen, um hier irgendwas rauszukriegen? Also das ist wirklich eine Riesenleistung. Aber ganz, ganz anderer Natur als das, was ich mache: nach Mustern und nach Kategorien zu suchen, um daraus Regeln zu bilden, mit denen ich die Welt besser verstehen kann. Und besser verstehen. Wir versuchen die ganze Zeit, die KI besser zu verstehen oder auch irgendwie insgesamt besser zu verstehen, wie wir als Gesellschaft damit umgehen. Könnten Sie nochmal auf den Punkt bringen, was Ihre größte Angst ist, wenn Sie an die Zukunft der KI oder mit der KI denken? Ich glaube, dass Angst der falsche Begriff ist. Und wenn wir das nicht hinkriegen, dann werden ganz viele Entscheidungen in Firmen dazu führen, dass entweder einfach nur sehr viel Geld verblasen wird, man sich ein KI-System anschafft, das aber leider nicht tut oder nicht so gut funktioniert, wie man denkt. Oder es kommen wirklich Menschen zu finanziellem Schaden oder körperlichem Schaden. Also insofern, meine Mission ist es, schlecht gemachte Software oder Software, die in einem bestimmten Kontext nicht funktioniert, zu verhindern. Wir müssen aber an dem heutigen Abend über Ängste sprechen. Es gibt Experten aus dem Silicon Valley, aus dem Dunstkreis von Open AI, die davon ausgehen, dass schon 2030, fünf Jahre von heute, eine Superintelligenz ins Haus steht. Über Agentensysteme haben wir gesprochen. Also angeblich soll die aus Agentensystemen erwachsen, sich dann irgendwann selber weiter programmieren können, weiter optimieren können, sich verselbstständigen, bis sie in nur fünf Jahren von heute eine reale Gefahr für den Weltfrieden darstellen kann. Wie bewerten Sie so etwas? Ja, super Frage. Zwei Minuten vor elf. Eine Runde Espresso für alle. Ganz kleine Frage. Diese Art von Technologie wird nicht superintelligent werden, weil die nur Texte bekommt. Inzwischen bekommt sie auch Videos, also das nennt man multimodal. Aber die Maschine ist während des Lernens nicht selber in der Welt. Und das klingt jetzt so philosophisch, aber die weiß eben nicht, was eine Flasche ist. Die weiß nicht, was Wasser für mich als Mensch bedeutet. Siehst du, wir brauchen das nämlich. Und das heißt, ihr fehlt dieses Eingebettet-Sein in die Welt. Im Moment werden Maschinen trainiert, und wenn sie dann fertig trainiert sind, kommen sie in die Welt, dann tun sie da irgendwas, und dann macht man sie neu. Also wenn Sie glauben, dass ChatGPT von ihren Diskussionen mit ihm irgendwas lernt, das stimmt nicht. Sondern irgendwann guckt sich ein Ingenieur an, ob sie auf den Daumen hoch oder Daumen runter gedrückt haben und wird das dann vielleicht nochmal verwenden. Aber die Maschine lernt nicht mit Ihnen. Und das heißt, wir bräuchten, um echte Intelligenz zu haben, Maschinen, die in der Welt sind, die selber Erfahrungen machen, die auch für sie eine Bedeutung haben. Und dann müssen sie in der Welt ihr Modell verändern. So, und das ist richtig richtig schwer. Denn wir müssten der Maschine sagen, wann ihr bisheriges Modell von der Welt so weit weg ist von der Realität, dass sie es verändern muss. Stellen Sie sich ein Kind vor, das laufen lernt und von jedem Hinfallen sofort denkt: „Oh, jetzt habe ich mir wehgetan, jetzt mache ich gar nichts mehr.“ Das ist auf jeden Fall falsch. Sondern das Kind soll lernen, dass so, wie es den Fuß aufgesetzt hat, das war nicht so gut. Jetzt machst du es beim nächsten Mal ein bisschen anders. Und das fein zu justieren, wann die Maschine ändert und wann sie nicht ändert, das werden wir nicht hinkriegen. Das habe ich in meinem ersten Buch aufgeschrieben. Da habe ich ein paar Beispiele gesammelt, wie schlecht Menschen darin sind, so eine globale Optimierungsfunktion. Wie muss ich steuern? Darin sind wir sehr, sehr schlecht, die von Anfang an richtig hinzukriegen. Davon kann ich nur abraten. Ich weiß, es ist naiv. Irgendjemand wird versuchen, das zu bauen. Nicht mein Problem. Ich glaube, bis dahin bin ich nicht mehr da. Die große Frage lautet ja: Wird die KI uns überflügeln? Wird sie es? Ich glaube, dass es genügend Personen gibt, die heute denken, sie haben uns schon überflügelt und sie deswegen für Dinge einsetzen, für die sie nicht geeignet sind. Und das halte ich für das größere Problem. Und da haben auch Tech-Konzerne eine Verantwortung. Haben sie schon, wenn sie der gerecht werden? Die sind jetzt natürlich in einer wirklich schwierigen Situation. Da ist so viel Geld hineingeflossen. Da muss jetzt ein Produkt raus. Und wir sehen, wie das bei Social Media funktioniert hat. Da sind eben auch Produkte herausgekommen, die menschenschädlich waren. Das war zum Teil bekannt, dass zum Beispiel junge Mädchen Körperbilder entwickelt haben, die einfach nicht gesund sind. Das war bekannt und wurde in Kauf genommen. Also insofern, ja, da liegt eine Verantwortung bei Firmen, die sie aber wahrscheinlich in dieser komplexen Situation nicht erfüllen können und werden. Und deswegen glaube ich, dass wir in Europa auf einem guten Weg sind. Frau Zweig, am Ende unseres Podcasts stecken wir jeden unserer Gäste in eine Spektrum-Zukunftsmaschine. Die haben wir unter hohen Kosten und Mühen auch für Sie entwickelt. In Ihrem Fall hat die so die Gestalt eines autonom fahrenden Fahrzeugs, also sogar eines autonom fliegenden Autos. Und ach, so, was ist eigentlich Ihre Lieblingsfarbe? Rot, würde ich tippen, oder so ein schönes, informatikgediegenes Blau? Nee, Rot ist gut. Rot, ja, wussten wir ja natürlich. Also dieses fliegende Auto, was in die Zukunft führt, ist rot gestrichen. Sie steigen ein, es ist ein sehr schön bequemer Sitz. Vor Ihnen sind drei Knöpfe auf Schildern. Direkt daneben steht: 10 Jahre, 100 Jahre und 1000 Jahre. Welchen Knopf drücken Sie? Sie glauben ernsthaft, dass ich in irgendwas Fliegendes einsteige? Das ist schon mal sehr lustig. Ist nur eine Zeitmaschine. Als Wissenschaftler ist man natürlich neugierig und würde natürlich gerne 1000 Jahre nach vorne sehen. Ich glaube, ich würde aber lieber wissen, ob meine Kinder in 10 Jahren, ob es denen gut geht. Also würde ich 10 Jahre nehmen, aus ganz privaten Gründen. Angekommen. Sie steigen aus und blicken nun mit den Augen der Sozio- Informatikerin auf die Welt in 10 Jahren von heute. Beschreiben Sie uns doch mal, wie es da so zugeht. Ich kann Ihnen sagen, wo ich hingucken würde. Ich würde eben gucken auf soziale Prozesse. Haben wir es geschafft, die Demokratie zu stärken, mit oder ohne Technologie? Haben wir es geschafft, den Klimawandel einzugrenzen? Denn am Ende sind das die großen Fragen. Das eine ist das, was ich forsche, und das andere sind die großen Fragen. Und die großen Fragen sind: Kriegen wir das alles hin? Und deswegen hätte ich, glaube ich, wenn ich eine solche Möglichkeit hätte, in die Zukunft zu gucken, würde ich nicht auf die Technologie gucken, sondern auf unsere sozialen Prozesse. Okay, jetzt gucke ich aber noch mal. Ich stelle noch eine Frage. Ja, Superintelligenz haben Sie abgeschmettert eben. Anderes, viel gehyptes Stichwort: AGI, Artificial General Intelligence. Sie schütteln schon mit dem Kopf. Können Sie kurz sagen, was es ist und warum es so, wie ich das wittere, nichts wird damit aus Ihrer Sicht? Also im Moment haben wir Spezial-KIs. Die eine kann Bilder, Gesichter erkennen. Die andere kann übersetzen. Die Sprachmodelle, das ist so die erste KI, die wirklich sehr, sehr viele Dinge ziemlich gut macht. Die kann eben coden, die kann eben übersetzen. Und die AGI ist die, die alles kann und eine eigene Intention hat. Und wie gesagt, diese Intention, das wäre sozusagen die globale Optimierungsfunktion, nach der die Maschine dann entscheidet, ob sie jetzt ihr Weltmodell verändern muss oder nicht. Und es wird Versuche geben, sowas zu bauen, und sie werden ganz furchtbar daneben gehen. Also die gibt es auch nicht. Ganz bestimmt nicht in zehn Jahren. Also wirklich gesellschaftliche Prozesse sind so wahnsinnig langsam. In zehn Jahren werden wir nicht viel sehen. In 100 Jahren werden wir einiges sehen. Da wird sich vieles verändert haben. Wir werden wahrscheinlich alle ein kleines Taschensprachmodell haben, das Notizen macht für uns. Erinnere mich daran, in zwei Stunden, dass ich noch Blumen gießen muss, was weiß ich. Das wird es definitiv geben. Wir werden uns mit allen Menschen in allen Sprachen unterhalten können. Eine riesige Errungenschaft. Ich hoffe, dass wir viel inklusiver sein werden. Ich habe mal in München einem Spastiker begegnet, der so einen riesigen großen elektrischen Rollstuhl hatte. Und wir haben uns unterhalten. Er hat gesagt: „Naja, ich wünsche mir ein Gerät, wo ich sagen kann: Ich bin müde, fahre mich heim.“ Und ich möchte den selbstfahrenden Rollstuhl sehen in 100 Jahren. Okay, also hätten Sie vielleicht dann doch besser die 100 Jahre gedrückt, um dann wirklich zu sehen, dass die KI uns zwar vielleicht nicht überflügelt, aber dennoch so unterstützt, dass es einen autonom fahrenden Rollstuhl gibt. Ganz herzlichen Dank, liebe Frau Zweig. Vielen Dank, dass Sie mit uns die große Frage, wird künstliche Intelligenz uns überflügeln, diskutiert haben. Ich habe unfassbar viel gelernt. Es waren viele Dinge dabei, die ich noch nicht wusste, aber auch Ihre Einschätzung als Sozioinformatikerin, die haben mich wirklich ganz besonders begeistert. Und da werde ich sehr, sehr viel mitnehmen. Ich hoffe, unser Publikum auch. Ja, herzlichen Dank an euch, unser Publikum. Ein Applaus für unseren Gast Katharina Zweig. Ja, das war die dritte Folge unseres Podcasts „Die großen Fragen der Wissenschaft“ und gleichzeitig unsere erste Live-Aufnahme. Wir sind jetzt im Studio hier und führen noch ein Nachgespräch. Aber zurückblickend, wie war es für dich, Katharina? Ich fand die Atmosphäre erstmal bei dem Podcast-Festival in Berlin bei Beats & Bones im Naturkundemuseum ganz fantastisch. Ich fand es toll zu sehen, wie viele Menschen sich für Wissenschaft interessieren und auch kritisch mit Wissenschaft auseinandersetzen. Und auch dafür, dass unser Podcast noch so jung ist, war es bei uns richtig voll. Und ich glaube, das lag am Thema. Und deswegen kann ich auch sagen, dass mir definitiv in Erinnerung bleiben wird von unserem Gespräch mit Katharina Zweig ihr Optimismus. Also, dass sie, anders als viele Kritiker dieser neuen Entwicklung mit KI, weshalb wir unsere große Frage auch so formuliert haben, ob die KI uns überflügeln wird, dass sie dem sehr viel entgegenhält und letztlich ganz klar vermittelt: Nicht die KI, nicht das System ist das Problem oder das, was gefährlich ist, sondern es ist gefährlich, wenn es falsch genutzt wird, wenn es in die falschen Hände gerät. Und da bin ich einfach unfassbar dankbar, dass Menschen, Forscherinnen wie Katharina Zweig, sich wirklich hinstellen und das auch in der Öffentlichkeit so transportieren, aber auch ganz klar eine Botschaft an die Politik senden: Da muss man hingucken. Und die Verantwortung trägt nicht die Wissenschaft, sondern die Verantwortung trägt ein Stück weit auch die Politik, da der Tech-Industrie ein Stück weit Einhalt zu gebieten. Das fand ich beeindruckend. Ja, sie ist einfach auch eine tolle Erklärerin und hat auch einiges von dem, was man so in den Medien mitbekommt, hier: Artificial General Intelligence, Superintelligenz, und sie wird uns bald überholen und vernichten und so weiter und so fort. Das hat sie eingeordnet und da auch so ein bisschen eben diesen Hype rausgenommen. Das fand ich auch gut, wie sie das gemacht hat. Stichwort nochmal Beats and Bones Festival. Ja, also das hat Spaß gemacht, live vor Ort zu sein, viele neugierige Gesichter zu sehen. Der Raum war toll gefüllt. Ich weiß nicht, ob man das dann hört in der Aufnahme. Ein bisschen schade war, dass wir zeitlich limitiert waren. Wir hätten ja vielleicht noch ein bisschen mehr Fragen können, auch so, wie sie selber in dieses Forschungsfeld reingefunden hat. Ein paar persönliche Fragen hatten wir noch auf Lager, aber wir waren auf maximal eine Stunde reduziert. Normalerweise sprechen wir 50 Prozent länger, und das war ein bisschen schade. Ansonsten hat es total Spaß gemacht und war ziemlich cool. Wenn ihr noch mehr zum Thema KI lesen wollt, empfehlen wir euch den Spektrum-Artikel „Die Mathematik der Fairness“, in dem es um die Frage geht, was fairer ist: Der Mensch, der auf Grundlage von Erfahrung aber auch von Emotionen Entscheidungen trifft, oder Algorithmen, die scheinbar objektiv sind, aber eingebaute Ungenauigkeiten aufweisen können. Außerdem finden wir das vor genau zehn Jahren bei Spektrum erschienene Digital Manifest noch immer sehr lesenswert. Das ist ein Denkanstoß führender Expertinnen und Experten, die auf die Gefahren einer durch Algorithmen und KI automatisierten Gesellschaft aufmerksam machen. Und auch darüber hinaus findet ihr zahlreiche Berichte und Reportagen auf spektrum.de. Ja, und wie geht es hier im Podcast weiter? Freut euch auf jeden Fall auf weitere große Fragen, die wir stellen und mit spannenden Gästen aus der Forschung diskutieren wollen. Dazu gehört zum Beispiel: Können wir ewig leben? Wie entstand das Universum? Oder auch: Wie funktioniert das menschliche Gehirn? Und wenn ihr weitere Antworten auf große Fragen der Wissenschaft nicht verpassen wollt, dann folgt gerne diesem Podcast. Hört ihr uns zum Beispiel bei Apple Podcasts, dann klickt einfach oben rechts auf den Button „Folgen“ und lasst auch gerne eine 5-Sterne-Bewertung da. Das hilft anderen Neugierigen, diesen Podcast zu finden. Teilt den Podcast außerdem gerne mit euren Bekannten, Freunden, Familie und allen, die sich auch für die großen Fragen der Wissenschaft interessieren. Und wenn ihr Fragen, Anregungen, Lob oder auch Kritik loswerden wollt, dann schreibt uns eine Mail an podcast@spektrum.de. Redaktionell unterstützt hat uns bei dieser Folge Stefan Ziegert. Die Musik kommt von Tim Schmutzler. Vielen Dank dafür und ein großer Dank natürlich auch an die Veranstalter des Beats and Bones Festivals, das Naturkundemuseum in Berlin und die Produktionsfirma „Auf die Ohren“. Und damit sagen wir Tschüss für dieses Mal. Tschüss und bleibt neugierig. Untertitel im Auftrag des ZDF für funk 2017.