Laut der Deutschen Gesellschaft für Psychiatrie und Psychotherapie, Psychosomatik und Nervenheilkunde sind jedes Jahr 27,8 % der Erwachsenen von einer psychischen Erkrankung betroffen. Die Tendenz ist steigend. Ein relativ kleiner Teil davon macht psychotische Erkrankungen aus, zum Beispiel die Schizophrenie. Wird die Krankheit aber nicht rechtzeitig erkannt, hat das erhebliche Auswirkungen auf das Leben der Betroffenen. Früherkennung ist deshalb extrem wichtig. Die ist allerdings gar nicht so einfach. Wie KI an dieser Stelle weiterhelfen könnte, darum geht’s hier heute in „Ach Mensch“. Ich bin Jessi Jus. Bei Betroffenen verändern sich Denken und Wahrnehmung. Sie leiden unter anderem an Halluzinationen oder sogar Wahnvorstellungen. Psychotische Störungen gehören zu den schwerwiegendsten psychischen Erkrankungen. Und sie treffen Menschen meist in einer besonders verletzlichen Lebensphase, wenn sich Gehirn, Persönlichkeit und soziale Beziehungen stark verändern, nämlich im jungen Erwachsenenalter. Umso wichtiger ist es, psychotische Störungen frühzeitig zu erkennen. Genau damit beschäftigt sich Professor Dr. Nikolaos Koutsouleris. Er ist Facharzt für Psychiatrie und Psychotherapie an der Universität München und forscht am Max-Planck-Institut für Psychiatrie. Mit seinem Team hat er eine KI-gestützte Software entwickelt, die das Risiko, an einer Psychose zu erkranken, analysiert. Ich habe ihn zuerst gefragt, warum die Früherkennung bei einer Psychose so entscheidend ist. Wir sind leider immer noch häufig mit einem schlechten Verlauf verbunden. Das heißt, trotz aller therapeutischen Möglichkeiten, die wir jetzt so haben in der Psychiatrie, also psychotherapeutische Behandlungsmöglichkeiten, kennt man ja vielleicht kognitive Verhaltenstherapie, interpersonale Therapie, Gesprächspsychotherapie im Allgemeinen, aber auch medikamentöse Verfahren oder Medikationen, die helfen, leider immer noch nur bei einem Teil der Patienten. Also wenn einmal eine Psychose ausgebrochen ist, dann weiß man so Pi mal Daumen, dass circa 50 Prozent der Betroffenen keinen so guten Verlauf haben. Was bedeutet das? Das heißt, dass immer wieder psychotische Episoden auftreten und die Betroffenen im Prinzip nicht mehr zu ihrem alten Funktionsniveau zurückkehren können, also in ihre Ausbildung zurückkehren können oder in ihren Beruf zurückkehren oder dass vielleicht auch Bekanntschaften, Freundschaften, Beziehungen auseinanderbrechen, ein Stück weit auch durch die Psychose, weil die Person sich aus der Gesellschaft zurückzieht. Und wenn das häufiger passiert, dann sehen wir auch leider, dass die Fähigkeit, sich zu erholen, verloren geht. Mit jeder weiteren Episode steigt das Risiko für eine Chronifizierung, also einen ungünstigen Verlauf. Deshalb ist es so extrem wichtig, frühzeitig etwas zu tun, präventiv tätig zu sein, weil dieses Fenster, dieses Risikofenster, von dem ich vorhin gesprochen habe, ist ja auch ein Fenster von Möglichkeiten, also therapeutisch etwas zu machen. Und je früher man die entstehende Erkrankung erkennt, desto besser ist es. Warum? Weil eben diese Phase eine besonders hohe Plastizität des Gehirns mit sich bringt. Das heißt, man kann quasi diesen Erkrankungsprozess zumindest abmeldern oder, auch das ist die große Hoffnung, komplett zum Stillstand bringen und so der betroffenen Person eine normale weitere Entwicklung ermöglichen. Also je früher man diese Dynamik erkennt, desto besser. Und als Kliniker sehe ich eben auch Patienten und Patientinnen auf meiner Station. Also ich arbeite auf einer Transitionsstation, das ist eine Station für junge Erwachsene und Jugendliche. Da sehe ich junge Menschen, die häufig mit einer Vielzahl von Diagnosen zu uns kommen. Das heißt, die haben schon einen Weg von häufig drei bis vier, auch mal sechs Jahren oder sieben Jahren hinter sich, wo sie verschiedene Anlaufstellen sozusagen um Hilfe gesucht haben. Also Kinder- und Jugendpsychologen zum Beispiel, Kinder- und Jugendpsychiater, Seelsorge, verschiedenste Anlaufstellen. Und dort haben sie häufig Diagnosen bekommen. Und diese Diagnosen, die haben meistens nicht viel mit Psychosen zu tun. Das heißt, die haben zum Beispiel ein ADHS bekommen oder eine Depression als Diagnose. Aber niemand denkt an eine mögliche spätere Psychose. Und das ist das große Problem. Das heißt, man kann sich das so vorstellen, dass diese Erkrankungen wie so eine Pflanze sich entwickeln und sich immer weiter ausdifferenzieren. Und am Anfang, wenn so ein Sprössling kommt, dann weiß man noch nicht genau, in welche Richtung diese Pflanze wächst oder welche Gestalt sie annimmt. Und das ist der große Neudeutsch Challenge hier sozusagen, die spätere Entwicklung frühzeitig abzupassen und zu erkennen, wohin die Person sich entwickelt. Deswegen haben wir eben auch darüber nachgedacht, zusätzliche Methoden in die Psychiatrie einzuführen, basierend auf biologischen und auch anderen Daten. Also mit Hilfe von Mustererkennung eben diese subtilen, feinen Muster zu erkennen, die verschiedenste Merkmale umfassen, die aber in ihrer Gesamtheit ein klares Bild von Risiko für Psychoseentwicklung ergeben. Vielleicht können wir uns einfach mal so ein bisschen konkreteres Beispiel überlegen. Wir haben jetzt eine junge Person, die vielleicht schon bei verschiedenen Anlaufstellen war, vielleicht in einer Therapie, und irgendwann landet sie bei Ihnen. Welche verschiedenen Daten brauchen Sie dann jetzt von dieser Person, um das von Ihnen Verlauf zu bekommen? Ja, das ist eine wichtige Frage. Man kann sie recht einfach beantworten. Es sind eigentlich Untersuchungsmethoden, die wir schon recht lange machen. Also man braucht im Prinzip eine Kernspintomographie des Gehirns, eine strukturelle Kernspintomographie. Die wird häufig in Deutschland gemacht bei jungen Leuten, die eben eine psychische Erkrankung haben, um mögliche organische Ursachen auszuschließen. Das heißt, es kann ja sein, dass, nennen wir die Person mal Bernd, Bernd kommt in die Klinik und hat eben diese subtilen Wahrnehmungsstörungen und Beobachtungserleben. Es könnte sein, dass Bernd eben vielleicht eine Hirnentzündung hat oder auf den Kopf gefallen ist vor drei Wochen und deswegen eine Blutung hat. Das heißt, man muss eine Kernspintomographie machen, um organische Ursachen erstmal auszuschließen. Aber in diesen Bildern steckt viel viel mehr Information, als man denkt. Und diese subtile Information, die kann eben unser Programm, unser Algorithmus, der trainierte KI-Algorithmus, herausziehen und erkennen. Also das ist eine der wichtigen Datenquellen, die wir brauchen. Eine weitere Datenquelle sind klinische Informationen, die wir auch regelhaft erheben. Also wir haben so Spezialinterviews, mit denen wir diese Symptome erfassen als Kliniker. Also wo wir quasi ein Score, also ein Rating machen, wie stark diese Person bestimmte Symptome zeigt. Und diese Zahlen, diese Scores, gehen auch in diesen Algorithmus. Und dann noch so neurokognitive Testverfahren. Also da gibt es zum Beispiel einen Test, wo man misst, ob eine Person Emotionen erkennen kann auf dem Gesicht von anderen Menschen. Und da würden wir eben Bernd zur neurokognitiven Testung schicken und eben diese Daten zusätzlich erheben. Und insgesamt haben wir also somit im Prinzip vor allem drei verschiedene Daten: Kernspintomographie, neurokognitive Testungen und klinische Scores, die zusammengenommen von dem Algorithmus eben analysiert werden und mit einer Genauigkeit von circa 85 Prozent sagen können, ob jemand in den nächsten zwei Jahren eine Psychose entwickelt oder nicht. Sie haben es eben schon gesagt, alle Methoden, die jetzt hier zusammenlaufen, die werden sowieso schon angewendet. Was macht denn Ihr Programm, das Sie entwickelt haben, jetzt besser als Ärztinnen und Ärzte? Also man muss im Prinzip erstmal sagen, dass Ärztinnen und Ärzte gar nicht so schlecht sind in der Vorhersage. Das haben wir auch untersucht und haben festgestellt, dass sie im Prinzip genauso gut verarbeiten oder genauso präzise sind wie ein einzelner Algorithmus. Das heißt, ein Algorithmus, der jetzt zum Beispiel an den kernspintomographischen Daten trainiert wurde oder an den klinischen Daten oder an der Neurokognition. Es gibt aber einen großen Unterschied. Man sieht, dass die KlinikerInnen sehr gut darin sind, spätere Psychosen auszuschließen. Aber sie sind nicht so gut darin, sie zu erkennen. Wo der menschliche Beobachter, also der Psychiater, die Psychiaterinnen sehr gut sind, ist in diesem Ausschluss. Das heißt, richtig zu sagen, wenn eine Person nicht erkrankt. Aber sie verpassen leider die, die erkranken. Auf der Seite ist die KI oder sind die Algorithmen deutlich besser. Und was wir jetzt erstaunlicherweise gesehen haben, ist, dass die Kombination von beidem, also von klinischer menschlicher Mustererkennung und künstlicher oder maschineller Mustererkennung, dass diese Kombination noch mal deutlich besser ist. Und deswegen ist der Weg auch in die klinische Anwendung, dass man den Menschen nicht ausschließt aus diesem Prognoseverfahren, sondern im Gegenteil, dass der Mensch ein ganz wichtiger Baustein ist, also die menschliche Mustererkennung der Kliniker. Der Ablauf wäre folgender: Bernd kommt in die Klinik, wird untersucht, standardisiert untersucht mit diesen Fragen, wo wir festgestellt haben, die sind sehr genau durch den Kliniker. Am Ende dieser klinischen Evaluation sagt der Kliniker, die Klinikerin: Ich denke, das ist der Verlauf Psychose in der Zukunft, ja oder nein. Und dann sieht der Algorithmus diese beiden, also die Prädiktion des Klinikers und diese klinischen Daten. Und wenn er dann sagt: Ich denke auch, dass diese Person Psychose bekommt, dann kommen weitere Untersuchungen dazu, nämlich die Kernspintomographie und die Neurokognition auch. Und das führt dazu, dass die, die initial eine Vorhersage einer späteren Psychose bekommen und wo das falsch ist, dass die dann auch richtig als Nicht-Übergänge erkannt werden. Das hört sich jetzt ein bisschen kompliziert an, aber im Endeffekt bedeutet das, dass die Falsch-Positiv-Rate sinkt. Also das Gesamtverfahren in dieser Kette von Untersuchungen führt dazu, dass die Falsch-Positiven rausgefischt werden. Also dass dann quasi die Diagnose richtig oder die Prognose richtig gemacht wird dadurch. Also man braucht die biologischen Daten zur Richtigstellung, wenn man so will. Ja, wenn also in dieser Staffel „Ach Mensch“, in der es um KI geht, muss man sagen, dass wir uns eigentlich in jeder Folge einer gewissen Skepsis auch gegenüber KI beschäftigen. Also ich kann mir jetzt vorstellen, dass es sowohl von Patientenseite als auch bestimmt unter Kolleginnen auch gewisse Vorbehalte gibt. Und ich sage jetzt mal aus Nicht-Medizinerinnen- und aus vielleicht potenzieller Patientinnen-Perspektive hätte ich Angst, dass gewisse Zwischentöne, die vielleicht ein Psychiater oder ein Psychologe irgendwie im engen Austausch mit mir als Patientin hat, dass so etwas vielleicht verloren geht. Also dass so Diagnose- Kriterien doch anders sind, wenn man ja in einem One-on-One-Gespräch ist, als wenn man später nochmal ein Computer-Ding auswertet. Ja, es gibt sicher ganz viele verschiedene Ebenen, warum man skeptisch gegenüber solchen Methoden sein kann. Ja, und Sie haben recht. Natürlich gibt es Nuancen, die man nicht erkennt, weil man müde ist in der Arbeit, zum Beispiel einen Dienst hinter sich hatte und vielleicht nicht so offen ist für das, was der Patient, die Patientin erzählt. Deshalb ist es glaube ich ganz, ganz wichtig, dass so etwas in einem sehr strukturierten Umfeld passiert, so ein Gespräch. Und dass beide Zeit haben und offen sind miteinander zu sprechen, sowohl der Kliniker, aber auch der Patient, die Patientin. Das ist häufig auf beiden Seiten nicht immer der Fall. Das heißt, es gibt auf jeden Fall ein Risiko, dass diese Daten, die dabei entstehen, vielleicht nicht das widerspiegeln, was der Patient tatsächlich erlebt. Ich habe da keine gute Lösung in dem Sinn, außer dass man zum Beispiel solche Untersuchungen auch wiederholen kann. Und dass man dann auch durch die Wiederholung diese Störfaktoren reduziert, die es einfach gibt. Aber wie gesagt, diese Verfahren basieren ja nicht nur auf klinischen Daten, sondern eben auch auf biologischen Informationen, die vielleicht weniger störanfällig sind, was den von Tag zu Tag Zustand angeht. Natürlich verändern die sich auch und sind dynamisch, aber die, die wir untersuchen, sind jetzt nicht im Prinzip so dynamisch, dass man sagen kann, das ändert sich wirklich täglich oder wöchentlich. Also ja, es gibt Rauschen in diesen Daten aufgrund verschiedenster Dinge. Aber man muss damit umgehen, wie bei jeder Untersuchung, die es in der Medizin gibt. Und da ist die Psychiatrie auch keine Ausnahme. Ich glaube, wir kommen bestimmt auch noch auf die ein oder andere. Ja, es gibt viele andere Einwände noch, ja, kritischen Nachfragen zu sprechen. Mich würde auch interessieren, wann Sie eigentlich mit der Arbeit am Neurominer begonnen haben. Also wie lange dauert dieses Projekt schon? Und haben Sie damals, als Sie angefangen haben, damit gerechnet, dass sich Ihre Forschung mal so weit entwickeln würde? Nein, damit habe ich natürlich nicht gerechnet. Wir haben im Prinzip ich sage extra „wir“, weil ich war ja nicht alleine, sondern immer ein Team von Forschern. Es begann eigentlich mit Neugier, warum Menschen in solche Zustände kommen und daraus dann Krankheiten entstehen. 2008, soweit geht es tatsächlich zurück, haben wir die ersten Befunde erhoben, dass das Gehirn verändert ist bei diesen Risikopatienten. Und dann hat sich gezeigt, dass diese Veränderungen nur auf Gruppenebene erst mal mit den damaligen statistischen Verfahren nachweisbar sind und dass das eigentlich gar nicht viel bringt für den Einzelfall, für die Einzelprädiktion, für die Vorhersage bei einem einzelnen Patienten, der jetzt Hilfe sucht zum Beispiel. Sondern das sind Gruppenphänomene. Und dann hat sich aber gezeigt, dass wenn man die Daten neu auswertet, also mit einem anderen Blick, mit dem Blick des maschinellen Lernens, der Mustererkennung, dass dann doch Muster sichtbar werden, die so persistent sind über die Menschen hinweg, dass man damit Vorhersagen treffen kann. Und dann war eigentlich der Punkt erreicht, wo das Ganze so wirklich an Fahrt aufgenommen hat. Wir hatten dann die erste größere Publikation zu dem Thema. Und damals haben viele gelacht, auch im Feld, und haben gesagt, das ist absurd, dass man maschinelle Lernverfahren in die Psychiatrie bringen kann, in ein Fach, was so voller Graubereiche steckt und vieler Unklarheiten, auch was die Definitionen angeht. Aber wir konnten dann eben zeigen, auch in einem großen EU-Projekt tatsächlich, dass diese Muster nicht zufällig existieren, nur in einer Kohorte, sondern an verschiedenen Zentren, in verschiedenen Gesundheitssystemen, in verschiedenen, also sprich Kohorten, nachweisbar sind, sodass tatsächlich verallgemeinerbare prädiktive Modelle gebaut werden können. Also die jetzt zum Beispiel in Deutschland gebaut werden können und auf Menschen in Großbritannien, Finnland, Italien und der Schweiz anwendbar sind. Und das hat im Prinzip dann zu der nächsten großen Studie geführt, die jetzt noch nicht ganz abgeschlossen ist. Ich darf auch noch nicht viel darüber sagen, aber vielleicht so viel, dass die Ergebnisse sehr, sehr positiv sind. Das ist eine klinische Studie, wo wir zum ersten Mal diesen Algorithmus in der klinischen Versorgung testen. Das heißt, es wird ein Befund produziert, basierend auf dieser KI-Analyse, der das individuelle Risiko eines hilfesuchenden Menschen misst. Und basierend auf diesem Risiko kann der Therapeut, die Therapeutin zusammen mit den Patientinnen eben aussuchen, welche Therapie ausgewählt wird oder welche Therapiemethode verwendet wird, um das individuelle Risiko zu senken. Genau, und dieser ganze Weg hat insgesamt jetzt über 17 Jahre gedauert. Und so eine Studie muss ja auch länger dauern, damit man auch sehen kann, ob die Prognose zutrifft oder richtig. Genau. Und das ist auch eine Beschränkung sozusagen, die wir haben in der Aussagekraft, weil das Risiko endet nicht nach dem Studienende. Patienten haben häufig ein Risiko, das über Jahre geht und erst später dann langsam verschwindet. Aber unsere Studien sind aufgrund der Finanzierung immer so auf zwei, maximal drei Jahre begrenzt. Also die Vorhersagen, die wir machen, beziehen sich auf diesen Zeithorizont, auf circa zwei Jahre. Alles, was darüber hinausgeht, können wir im Prinzip nicht vorhersagen oder nicht sicher vorhersagen. Wir wissen es einfach nicht, ob der Algorithmus für längere Zeiträume funktioniert. Das müsste man in lang angelegten Studien, die sehr schwierig zu finanzieren sind, untersuchen. Kommen wir vielleicht nochmal zurück zu unserem Beispiel. Also Bernd ist jetzt bei Ihnen gelandet und Sie haben ihn eine Weile begleitet. Und die Prognose ist jetzt, bei ihm wird sich eine Schizophrenie entwickeln. Gut, Sie kennen sich damit jetzt aus. Vielleicht haben Sie mal anders gefragt, ein anderer Arzt oder eine andere Ärztin. Wie kann die denn jetzt sicher gehen, dass diese Prognose einigermaßen stimmt? Oder wie lassen sich überhaupt Fehler erkennen? Genau. Also das Programm ist so gestrickt, dass es diese Prognose nur abgibt, wenn es einigermaßen sicher ist. Also wir messen die Unsicherheit, auch die der Algorithmus selber hat. Das ist ganz wichtig, einfach als Qualitätsmaßnahme. Das heißt, wenn die Vorhersage in diesem Fehlerbereich liegt, dem kritischen Fehlerbereich, dann sagt die KI: Bitte verwende meine Vorhersage nicht. Das ist schon mal der erste Punkt. Das heißt, wir können in diesem Befundbericht angeben, wie die Unsicherheitsmarge, der Unsicherheitsbereich ist bei jedem einzelnen Patienten. Es gibt Patienten, die haben eine hohe Fehlermarge und andere, die haben eine geringe. Da ist sich der Algorithmus quasi sehr, sehr sicher in die eine oder in die andere Richtung. Und das ist schon mal das eine, dass man das also transparent macht. Und übrigens ist das auch eine Bedingung für Medizinprodukte, dass sie gewisserweise deterministisch und nachvollziehbar sind in ihrem Output. Und das ist bei KI natürlich noch mal wichtiger. Also es ist nicht ein Blackbox-Algorithmus, der irgendeine Zahl ausgibt und das war es oder eine Vorhersage, sondern der Algorithmus ist so beschaffen, dieses Modell, dass es nachvollziehbar wird. Das bedeutet nicht unbedingt, dass der Algorithmus immer richtig liegt. Also wir wissen, wie die Genauigkeit ist aufgrund von verschiedenen Tests, die wir gemacht haben. Wir wissen auch mittlerweile zunehmend, bei welchen Patienten es nicht so gut funktioniert und bei welchen es im Gegenteil gut funktioniert. Und in der Zukunft wird das auch dazu führen, dieses neue Wissen, was wir jetzt haben, ist noch nicht ganz publiziert, dass wir sagen: Hey, auf dich ist dieser Algorithmus anwendbar und hier eher nicht. Und da brauchen wir vielleicht ein anderes Verfahren. Also so geht man quasi mit dieser Unsicherheit um. Aber wie ein anderer Arzt damit umgehen würde, das ist eine schwierige Frage, weil es gibt momentan keine Möglichkeit einer alternativen Testung. Wir haben entweder dieses Pronia AI-Modell, so nennen wir das, also dieses Prädiktionsmodell, oder eben kein Modell. Das heißt, State of the Art. Und die Kliniker, habe ich ja vorhin gesagt, die haben eine Genauigkeit von ca. 73. Das kombinierte Modell hat eine Genauigkeit von 85 in der Vorhersage. Also das ist ein Unterschied von 12. Im Endeffekt ist das ein großer Unterschied tatsächlich. Aber vielleicht noch als Einschränkung: Diese 73 der klinischen Genauigkeit, die haben wir gemessen bei KlinikerInnen, die 8 Stunden Zeit hatten, sich mit den Personen zu beschäftigen. Das sind nämlich unsere Rater gewesen in der Studie. Das entspricht also nicht der Realität. Das ist ganz, ganz wichtig, dass ich das hier nochmal sage. Das heißt, die klinische Realität ist, dass eine Psychiaterin oder eine Psychotherapeutin vielleicht eine halbe Stunde oder eine Stunde Zeit hat und das war’s. Und wir wissen nicht, wie genau dann Menschen sind nach dieser Stunde zum Beispiel, wenn sie ihren Patienten ausführlich untersucht haben. Das heißt, idealerweise soll das auch im Klinikalltag nicht nur zur Verbesserung führen, wahrscheinlich auch zur Entlastung des Personals. Wie wahrscheinlich ist es denn, dass das mal flächendeckend angewendet werden kann? Ich glaube, nicht, dass es zu einer Entlastung führt tatsächlich. Ich glaube aber, dass es zu einer Verbesserung führt. Wen es entlastet, ist das Gesundheitssystem vielleicht und den Patienten, die Patientin. Warum die Patientin? Und da muss man natürlich die Angehörigen auch mitdenken, weil da gibt es unglaublich viel Unsicherheit. Ja, was habe ich eigentlich? Es wird immer schlechter. Kann ich irgendwas tun? Woran leide ich? Was ist das überhaupt? Und meine Erfahrung jetzt auch aus dieser klinischen Studie, die wir machen, ist, dass wenn ein Befund auf dem Tisch liegt, der einigermaßen objektiv ist, dass das dazu führt, dass man was tun kann. Dass man erstmal Klarheit bekommt, dass eine Strategie dann entwickelt werden kann, wie man diesem Risiko begegnen kann. Häufig, wie ich eingangs gesagt habe, irren die Patientinnen durch das Gesundheitswesen über Jahre und finden keine Lösung für ihre sich zuspitzende Symptomatik. Das ist der eine Aspekt. Und der andere Aspekt, wie ich gesagt habe, für das Gesundheitswesen oder das System. Sie können sich vorstellen, wie viele Kosten entstehen dadurch, dass die Patienten nicht die richtige Anlaufstelle finden. Oder dass alles verschleppt wird und dann Erkrankungen ausbrechen. Schizophrenien sind die teuerste eine der teuersten Erkrankungen, wenn man die Betroffenen betrachtet. Und das hat natürlich insofern eine Entlastung. Aber für das Klinikpersonal in dem Sinne eine direkte Entlastung sehe ich jetzt nicht unbedingt. Ich sehe eine Verbesserung durch höhere Präzision, höhere Genauigkeit. Aber man muss immer noch seine Arbeit hoffentlich genauso gut machen, wie man sie sonst immer macht. Das heißt, um nochmal zusammenzufassen: Ärztinnen und Ärzte, die in Zukunft mit solchen Programmen arbeiten, die müssen natürlich auch dafür ausgebildet werden, damit sie verstehen, wie solche Systeme funktionieren. Jetzt könnten wir vielleicht auch andersrum nochmal fragen, wie es mit dem Patienten oder der Patientin aussieht. Wir hatten auch eine Folge in der es um Patientenautonomie ging. Und ich kann mir vorstellen, dass eben auch von Patientenseite immer noch Vorbehalte gegenüber dieser Art von KI Nutzung bestehen, bei einer eigenen Diagnose oder eben für eine Prognose. Und wenn Patienten nicht ganz nachvollziehen können, wie die KI auf ihr Ergebnis kommt, dann wird da sicher eine große Skepsis so einem Ergebnis gegenüber bestehen. Wie gehen Sie damit um? Sie haben natürlich absolut recht. Das ist eine Untersuchung, in die der Patient, die Patientin einwilligen muss. Und das erklärt werden muss, wie bei jeder anderen Untersuchung auch, über Vor- und Nachteile gewissermaßen. Nebenwirkungen haben wir jetzt in dem Sinne nicht unbedingt, aber durchaus vielleicht schon, wenn man überlegt, dass das Ergebnis auch Stress auslösen könnte. Also überlegen Sie sich, Sie haben zwar diese Unsicherheit, aber jetzt hören Sie von Ihrem Arzt, dass Ihr Risiko, eine Psychose zu erkranken, bei 90 Prozent liegt oder 80 Prozent in den nächsten zwei Jahren. Das macht natürlich was mit Ihnen. Und insofern kann das schon Stress auslösen und vielleicht auch Symptome verschlimmern. Manche Menschen könnten vielleicht auch suizidal werden dadurch. Das sind alles Dinge, die berücksichtigt werden müssen und über die der Patient, die Patientin aufgeklärt werden muss, eingangs und auch, wie der Algorithmus zumindest in groben Zügen funktioniert. An sich ich hatte es ja vorhin schon genannt, ist der Algorithmus keine Blackbox, sondern Sie sehen, warum es zu dieser Vorhersage kommt. Das ist extrem wichtig, weil nur wenn man das Warum beantworten kann, kann man auch am Warum etwas ändern, zusammen mit dem Patienten. Zum Beispiel hat ein Patient, Bernd, sehr viel Cannabis konsumiert. Und das Risiko ist hoch. Jetzt sieht er, dass das Risiko nicht nur abstrakt ist, weil er gehört hat, dass Menschen, die Cannabis konsumieren, generell eine höhere Psychose-Neigung haben, sondern sein konkretes Risiko liegt bei, nennen wir mal, 90 Prozent als Wert hier. Das hat natürlich eine ganz andere Wirkung. Also das sind die Aspekte, die, glaube ich, so ein bisschen betrachtet werden müssen. Aber ja, man muss informieren, man muss aufklären, wie bei jeder anderen Untersuchung auch. Wenn er die Prognose einer späteren Erkrankung bekommt und er ist tatsächlich ein Cannabis-Konsument, dann würde man erstmal ihn dazu auffordern, vom Cannabis die Finger zu lassen. Wenn sich aber jetzt herausstellt, dass Bernd noch zusätzliche andere Probleme hat, die auch der Algorithmus gesehen hat, also zum Beispiel, dass er Schwierigkeiten hat in der Emotionserkennung, dass er verstärkt ein Bedeutungs-Beeinflussungs-Erleben hat, dann könnte man ihm eine spezielle Form von Psychotherapie anbieten, die eben genau diese Risikofaktoren dämpfen kann. Sprich, die dem Bernd helfen kann, das anders wahrzunehmen. Sich zum Beispiel nicht beobachtet zu fühlen, sondern selber einen Realitätscheck machen zu können. Zum Beispiel durch metakognitives Training. Das ist eine der möglichen Psychotherapie-Optionen. Es gibt auch eine spezielle Psychotherapie, die nennt sich IPPI. Sie wurde entwickelt von einer Kollegin in der Schweiz und ist mittlerweile auch gut etabliert. Diese Therapie ist speziell für das Hochrisikostadium konzipiert worden, also für Patienten wie Bernd. Wir verwenden diese Therapieform auch in dieser CARE-Studie und wählen die Module, die diese Therapie beinhaltet, entsprechend des Risikoprofils aus. Das heißt, die KI generiert ein Risikoprofil anhand der Daten des Patienten. Der Therapeut schaut sich zusammen mit dem Patienten dieses individualisierte Profil an und wählt dann aus dem Baukasten der Psychotherapie die passenden Module für den Patienten aus. Das kann jetzt bei Bernd, wie gesagt, Emotionserkennungstraining sein, zum Beispiel metakognitives Training. Bei einem anderen Patienten könnte das völlig anders sein. Das ist auch skalierbar. Das heißt, wenn ein Patient ein sehr hohes Risiko hat, kann ich begründen, dass ich bei Bernd zum Beispiel 24 Stunden Psychotherapie machen muss. Bei jemandem, wo das Risiko grenzwertig ist, reichen vielleicht 16 Stunden. Das Ganze ist natürlich auch anpassbar. Aber ich will nur verdeutlichen, wie diese individualisierte Therapie oder präventive Therapie dann funktionieren kann in Zukunft, wenn das quasi Eingang findet in die Regelversorgung. Bleiben wir mal bei einem Zukunftsszenario. Für viele von Ihnen wahrscheinlich nicht, ist eben der Einsatz von KI in der Medizin und in der Psychiatrie sicher schon so ein bisschen futuristisch. Inwieweit könnten Apps oder digitale Gesundheitsdienste in der Früherkennung und im Management von psychischen Erkrankungen denn generell helfen? Könnten Patientinnen und Patienten vielleicht in Zukunft über ganz moderne Technologien aktiv bei der Prävention mitwirken? Man könnte sich konkret vorstellen, dass man eine App auf dem Handy hat, die dann verbunden wird mit ihrer Software und sozusagen schon sehr früh über die Mithilfe des Patienten Daten sammelt. Ja, das ist absolut ein realistisches Szenario. Der spezielle Algorithmus, den wir jetzt gebaut haben, ist dafür nicht geeignet. Das ist ein Modell, das in einem klinischen Kontext läuft, also sprich in einer Ambulanz oder einem Krankenhaus. Da ist quasi das Setting gegeben, damit die Daten, die dieses Modell braucht, auch entstehen können. Wovon Sie jetzt sprechen, das ist eher ein bisschen in diesem Digital Mental Health Bereich, da nennt man es auch, wo eben zum Beispiel Verhaltensdaten des Patienten über das Smartphone gesammelt werden. Natürlich muss auch jeder Patient einwilligen. Das ist auch für Psychose-Patienten nicht unkritisch, weil sie haben ja gerade häufig das Gefühl, beobachtet oder beeinflusst zu werden. Das ist ein bisschen ein zweischneidiges Schwert. Aber nehmen wir mal an, das wäre ein Weg. Dann könnte ich mir vorstellen, ein Modell zu bauen, das mit diesen Daten arbeitet. Das heißt, das Modell läuft auf einem Server in Deutschland, nicht in den USA. Dort werden die Daten hochgespielt, ausgewertet und das Ergebnis an den Patienten zurückgespielt. Dann kann der Patient oder die Patientin sehen, wie ihr Risiko ist. Und sowas kann man natürlich auch aktualisieren. Das heißt, man könnte sich vorstellen, so etwas in regelmäßigen Abständen, zum Beispiel zu machen, um zu schauen, wie sich das Risiko verändert. Wir reden ja jetzt immer von einem statischen Risiko. Das ist es aber nicht. Das Risiko ändert sich natürlich, je nachdem, wie das Verhalten des Patienten ist oder auch die biologische Entwicklung. Der Vorteil ist eben von solchen Verfahren, wie Sie sie skizziert haben, dass man das eben viel lebensnaher machen kann. Und vielleicht, um noch eins draufzusetzen, ich könnte mir auch vorstellen, dass in Zukunft speziell trainierte Large Language Models verfügbar gemacht werden für solche Patienten. Also sprich, Chat-GPT-Versionen, die gerade für solche Risikovorhersagen geeignet sind oder speziell dafür trainiert wurden an großen Datenmengen. Und als erste Linie quasi für den Patienten wie so ein digitaler Gesundheitsassistent zur Verfügung stehen, der Fragen beantworten kann. Und dann auch eine Schnittstelle bilden zu noch spezielleren Modellen, so wie das, was ich gerade geschildert habe. Das heißt, man könnte das als Mittler sehen, so eine KI, die ja als Large Language Model basiert ist. Das klingt auf jeden Fall ganz schön zukunftsweisend oder ganz schön futuristisch. Zum Teil finde ich auch so ein bisschen dystopisch, weil sich sofort bei mir ethische Fragen aufdrängen. Wissen Sie, wie viele Menschen sich mit Chat GPT über persönlichste Dinge unterhalten und auch für ihre Gesundheit verwenden? Also ich glaube, dass das Szenario schon eingetreten ist, tatsächlich. Ja, es gibt ja wirklich viele bekannte Fälle, wo sich zum Beispiel nach einem Suizid herausgestellt hat, dass der letzte Kontakt tatsächlich mit einer KI war. Das führt jetzt aber, glaube ich, fast ein bisschen zu weit für unser Gespräch. Vielleicht als letzte Frage: Glauben Sie denn, dass KI langfristig zu einer Veränderung der Art und Weise führen wird, wie wir psychische Erkrankungen behandeln? Also eher weg von Symptombehandlung, vielleicht hin zur Prävention? Absolut, da bin ich von überzeugt, dass das passieren wird. Und ich glaube auch, dass es gar nicht so lange dauern wird, bis wir zu dem Punkt kommen. Diese 17 Jahre, die es gedauert hat, unser einfaches Modell zu bauen, ich glaube, dass sich in Zukunft diese Entwicklungszyklen beschleunigen werden. Aber was, glaube ich, noch ein wichtiger Punkt ist dabei: Man muss diese regulatorischen Aspekte sehen. Das heißt, zum Beispiel, wenn Sie ein Medikament entwickeln, dann müssen Sie auch die Nachweise bringen der Wirksamkeit auf verschiedenen Ebenen. Und das ist für solche Medizinprodukte, die auf KI basieren, nicht anders. Das heißt, ich sehe, dass das ein Szenario ist für die Zukunft, dass quasi die Psychiatrie sich wegbewegt von der Versorgung häufig chronisch kranker Menschen hin zu einer präventiven Psychiatrie mithilfe von künstlicher Intelligenz, die quasi diese feinen Muster viel früher erkennen kann als wir Menschen, weil sie speziell dafür trainiert wurde, weil sie die Power hat und quasi eine Brille ist für uns als Kliniker, damit wir das besser registrieren können. Ich glaube, dass das zu einer fundamentalen Veränderung der Psychiatrie führen wird. Aber was sicher nicht passieren wird, ist, dass wir jetzt ständig neue KI-Modelle auf den Markt bringen, die quasi das nächste tolle Ding sind, um alles zu verändern. Das wird sicher nicht eintreten, sondern auch hier werden wir einfach die Medizinprodukte-Leitlinien befolgen. Und das ist auch gut so, denn die Patienten müssen natürlich am Ende auch eine sichere Versorgung haben, die transparent ist. Modelle und Hersteller von Modellen, die auch im Endeffekt die Verantwortung dafür haben, was auf dem Markt verfügbar ist. Vielen lieben Dank, Herr Koutsouleris. Das war sehr, sehr spannend. Freut mich sehr. Vielen Dank für die Einladung. Weg von der bloßen Behandlung chronischer psychischer Beschwerden hin zu mehr Prävention und Früherkennung. So stellt sich Nikolaus Koutsouleris die Zukunft der Psychiatrie vor. Und entscheidend dafür ist der Einsatz von KI. Die soll das in Zukunft möglich machen. Damit kommen wir nicht nur zum Ende dieser Folge, sondern auch zur letzten Podcast-Folge dieser Staffel. Ach Mensch, wir gehen jetzt erstmal in eine kleine Winterpause und dann hören wir uns hoffentlich im nächsten Jahr wieder. Falls ihr eine Folge dieser Staffel verpasst habt, in jeder Folge ging es um KI. Dann empfehle ich euch, einfach nochmal durch unseren Feed zu scrollen und vielleicht auch den Podcast zu abonnieren, falls ihr es noch nicht getan habt, denn dann verpasst ihr auf keinen Fall, wenn es mit neuen Folgen weitergeht. Bis es die gibt, habe ich noch einen kleinen Podcast-Tipp für euch. Gemeinsam mit Spektrum der Wissenschaft haben wir nämlich einen neuen Podcast gestartet: die großen Fragen der Wissenschaft. Und der Name ist wirklich Programm. Die Hosts, Katharina Menne und Carsten Könnecker von Spektrum, nehmen sich einmal im Monat richtig viel Zeit für sehr tiefgründige Gespräche mit Forscherinnen und Forschern. Mit dabei ist zum Beispiel die Meeresbiologin Antje Boetius. Gemeinsam mit ihr wagen sie sich an die große Frage: Was lauert in der Tiefsee? Denn die Tiefsee ist so unzugänglich, dass wir tatsächlich mittlerweile mehr über die Rückseite des Mondes wissen als über den Grund unserer Meere. Hört doch mal rein und folgt dem Podcast die großen Fragen der Wissenschaft. Ich verlinke euch den Podcast natürlich auch in den Show Notes. Bleibt mir noch zu sagen, dass diese Folge von Ach Mensch produziert wurde von Tim Schmutzler und ich bin Jessi Jus. Sage Tschau und auf bald. Ach Mensch, Schwerpunkt künstliche Intelligenz. Untertitel der Amara.org Community.