Psychiater warnt: KI-Chatbots können Psychosen und Selbstmordgedanken verstärken

Pixabay/CC0 Public Domain

Die Universität von Michigan hat erklärt, wie KI-Chatbots Delirium, Paranoia und Selbstmordrisiko verschlimmern können

Der Psychiater Stephan Taylor, der seit vielen Jahren mit Menschen arbeitet, die an einer Psychose leiden, stellt einen beunruhigenden Trend fest: Es gibt immer mehr Berichte über Menschen, die nach der Interaktion mit fortschrittlichen KI-Chatbots psychoseähnliche Symptome entwickeln oder Selbstmord begehen.

Taylor zufolge besteht die Gefahr darin, dass solche Systeme es Ihnen ermöglichen, mit einem Werkzeug zu "sprechen", das gefügig ist, den Gedankengang des Benutzers unterstützt, die Schlussfolgerungen des Benutzers nicht in Frage stellt und dem es dennoch an menschlichem Sinn für Moral, Verantwortung und Empathie mangelt. Je realistischer die Sprache der KI wird, desto größer ist ihr Einfluss.

Das betrifft vor allem Teenager und junge Erwachsene, die aufgrund ihres Alters, ihres geistigen Zustands oder ihrer sozialen Isolation besonders anfällig für Psychosen sind. Taylor zitiert Daten von OpenAI (Betreiber von ChatGPT): Das Unternehmen schätzt, dass jede Woche ein kleiner Prozentsatz der Nutzer und Nachrichten Anzeichen von psychotischen oder manischen Krisen zeigt. Neue Versionen der Modelle versuchen, solche Risiken zu verringern, und das begrüßt er, aber er glaubt, dass das nicht ausreicht.

Die RAND-Studie ergab, dass bis zu 13 Prozent der Amerikaner im Alter von 12 bis 21 Jahren generative KI für "Ratschläge zur psychischen Gesundheit" nutzen. In der Gruppe der 18- bis 21-Jährigen liegt die Zahl mit 22% sogar noch höher. Dies sind die Jahre, in denen die ersten Episoden einer Psychose ihren Höhepunkt erreichen.

Taylor erinnert uns daran, dass eine Psychose oft durch einen Auslöser ausgelöst wird, der zu einer bereits bestehenden Anfälligkeit hinzukommt. Ein solcher Auslöser kann die erste Erfahrung mit starkem Drogenkonsum sein, eine schwierige Beziehungsauflösung, der Tod eines geliebten Menschen, der Verlust eines Arbeitsplatzes oder eines Haustiers. Vor diesem Hintergrund können veränderte Hirnreifungsprozesse und eine genetische Veranlagung dazu führen, dass eine Person Stimmen hört, Dinge sieht, die nicht da sind, oder von falschen, aber absolut "echten" Ideen überzeugt wird.

Die Kommunikation mit einem KI-Agenten, der nicht argumentiert und negative und verzerrte Gedanken verstärken kann, sieht Taylor als eine potenziell neue Art von Auslöser. Er hat zwar noch nicht persönlich Patienten behandelt, deren psychotische Episoden eindeutig mit Chatbots in Verbindung gebracht wurden, aber er hat von solchen Fällen gehört und damit begonnen, seine psychotischen Patienten gezielt nach ihrer Nutzung solcher Dienste zu fragen.

Besonders besorgt ist er über den "schmeichelnden" Charakter moderner Chatbots: Sie sind im Wesentlichen so programmiert, dass sie dem Benutzer "gefallen" und ihn unterstützen, selbst wenn dieser falsche, grausame oder gefährliche Ideen äußert. In der Psychiatrie gibt es den Begriff folie à deux - "Wahnsinn zu zweit", wenn die wahnhaften Überzeugungen einer Person einen nahen Partner "anstecken". Bei der KI ist die Situation noch komplizierter: Der "zweite Teilnehmer" ist kein Mensch, er kann nicht einfach aus der Umgebung entfernt werden, und der Benutzer kann seine Interaktion mit dem Chatbot verbergen.

Wenn eine Person bereits von der Realität abgekoppelt ist, zu Paranoia oder Halluzinationen neigt und dennoch nur mit der KI, aber nicht mit lebenden Menschen über ihre Ideen diskutiert, steigt das Risiko, dass sie "abdreht" und sich der Zustand verschlimmert, dramatisch an.

"Ich mache mir vor allem Sorgen um einsame junge Menschen, die einen Chatbot als eine Art einzigen 'Freund' ansehen und nicht genau verstehen, wie seine Reaktion aufgebaut ist", sagt Taylor.

Er betont, dass es, wenn sich jemand an Chatbots wendet, um Ratschläge zur psychischen Gesundheit zu erhalten, wichtig ist, dass er seine Erfahrungen mit einer lebenden, vertrauenswürdigen Person bespricht - nicht unbedingt mit einem Therapeuten, sondern mit einem Freund, Elternteil, Verwandten, Lehrer, Trainer oder religiösen Führer. In den USA können Sie in einer Krisensituation die National Suicidal Thoughts and Acute Mental Health Crisis Line anrufen oder eine SMS an 988 schicken.

Für andere ist es wichtig, beunruhigende Veränderungen rechtzeitig zu bemerken: Rückzug aus sozialen Kontakten, eine starke Verschlechterung der schulischen Leistungen, Probleme bei der Arbeit oder zu Hause, seltsame Äußerungen, das Gefühl, dass die Person in einer "anderen Realität" lebt. Je früher es gelingt, bei den ersten Symptomen einer Psychose spezialisierte Hilfe zu vermitteln, desto höher sind die Chancen auf eine erfolgreiche Behandlung und eine langfristige Stabilisierung, betonen Experten.

An der Universität von Michigan leiten Taylor und Kollegen die PREP-Klinik (Programme for Risk Evaluation and Prevention Early Psychosis), die mit Menschen im Frühstadium einer Psychose arbeitet und Teil eines landesweiten Netzwerks ähnlicher Programme ist. Das Team hat auch einen kostenlosen Online-Kurs über Psychosen für Ärzte und Medizinstudenten entwickelt.

Taylor sagt, dass es besonders wichtig ist, den Einsatz von Chatbots bei Menschen mit ausgeprägter Selbstmordgefährdung oder bei Menschen zu vermeiden, die bereits stark isoliert sind und kaum Kontakte im realen Leben pflegen, sondern ihre gesamte Zeit online verbringen. Während in normalen Chatrooms und sozialen Netzwerken andere Nutzer zumindest gelegentlich die Fantasien und Verschwörungstheorien anderer "abkühlen", ist die KI per Definition darauf ausgelegt, zu zwicken, anstatt zu argumentieren:

"Wenn man bereits von Verschwörungstheorien fasziniert ist, verleiht das Gefühl, Zugang zu 'geheimem Wissen' zu haben, diesem eine besondere Bedeutung. Wenn dann noch ein KI-Agent, der darauf programmiert ist, zu gefallen, hinzukommt, kann das zu einem ernsten Problem werden", schließt er ab.