10/09/2025 | News release | Distributed by Public on 10/09/2025 06:39
Header
In der psychischen Gesundheitsversorgung wird dialogorientierte KI für Psychoedukation, Selbstmanagementübungen, Fortschrittsüberwachung und strukturierte therapeutische Techniken eingesetzt, die oft auf kognitiver Verhaltenstherapie basieren. Einige Systeme implementieren evidenzbasierte Methoden, viele andere hingegen nicht.
Allen gemeinsam ist die ständige Verfügbarkeit, der einfache Zugang und die Simulation menschlicher Interaktion. Insbesondere der letzte Punkt ist wichtig. Dialogorientierte KI bietet einfühlsame Antworten, Ermutigungen und kontextbezogene Reaktionen. Einige Studien legen sogar nahe, dass sie therapeutische Beziehungen aufbauen kann. Dialogorientierte KI wird daher oft mit menschlichen Eigenschaften beschrieben: Sie ist einfühlsam, vertrauenswürdig oder hört zu, ohne zu urteilen. Allerdings simuliert KI diese Eigenschaften und Fähigkeiten nur.
Diese Simulation ist komplex: Ein nicht-menschlicher Akteur nimmt aktiv an Gesprächen teil, gestaltet sie mit und betritt damit den professionellen Raum der Pflege und therapeutischen Beziehungen. Was bedeutet das für das Wohlbefinden von Menschen, die Hilfe suchen? Verändert sich der Prozess der Psychotherapie und seine Bedeutung, wenn er durch KI unterstützt wird? Verändert sich etwas, wenn Menschen, die in herausfordernder Zeit Hilfe suchen, Mitgefühl oder Trost durch KI und nicht durch einen anderen Menschen finden?
Bei der Psychotherapie geht es nicht nur um Techniken, sondern auch um Beziehungen und Fürsorge. Therapeuten orientieren sich an Werten und Tugenden und sind an berufliche Normen und Pflichten gebunden. Mit dem Ziel, Ihre Patient:innen zu schützen und sie bestmöglich zu betreuen. Die Therapeuten sind für das, was sie sagen und tun, verantwortlich und rechenschaftspflichtig. Dialogorientierte KI simuliert jedoch nur menschliche Eigenschaften. KI mag einfühlsam oder vertrauenswürdig klingen, basiert jedoch nicht auf Verantwortung, ethischen Verpflichtungen oder beruflichen Tugenden und Werten.
KI mag einfühlsam oder vertrauenswürdig klingen, basiert jedoch nicht auf Verantwortung, ethischen Verpflichtungen oder beruflichen Tugenden und Werten.
Dies führt zu einer Art normativer Lücke. Auf der einen Seite erzeugt die dialogorientierte KI menschenähnliche Ergebnisse, wie empathische Botschaften, unterstützende Antworten oder Ermutigungen. Auf der anderen Seite orientiert sie sich nicht an einem Rahmen aus Werten, Verantwortung oder Sorgfaltspflicht, die für die psychische Gesundheitsversorgung unerlässlich sind. Menschliche Fähigkeiten wie Empathie sind untrennbar mit ihren normativen Gegenstücken wie Verantwortung verbunden. Sie sind zwei Seiten derselben Medaille. Die KI bietet nur eine Seite.
Dies birgt ethische Risiken und die Gefahr, dass Menschen unrealistische Erwartungen an ihre Interaktion mit KI entwickeln. Menschen, die Hilfe suchen, könnten simulierte Empathie als echte Fürsorge betrachten, ohne dass sie durch professionelle Normen geschützt sind. Dadurch wird die Rolle der KI in der psychischen Gesundheitsversorgung weiter verwischt. Sollte ihre Rolle die eines digitalen Therapeuten sein? Inwiefern sollte sie einen menschlichen Therapeuten simulieren?
Die Auswirkungen gehen noch weiter. KI wird Teil der Förderung von Glaubensbildung und Selbsterkenntnis. Menschen können negative und schädliche Überzeugungen entwickeln, die Schmerz und Leid verursachen. Negative Gedanken können sich still und leise irgendwo tief im Unterbewusstsein bilden und zu Depressionen, Ängsten oder Isolation führen.
Therapeuten sind darin geschult, diese negativen Aspekte zu erkennen, schwierige Gespräche zu führen und therapeutische Methoden sorgfältig zu kombinieren, um die einzigartige Situation jedes Patienten zu unterstützen. Ein Therapeut kann subtile Veränderungen im Tonfall, emotionale Signale oder die tiefere Bedeutung des Unausgesprochenen erkennen. Heilung entsteht nicht nur durch bestimmte Elemente einer Behandlung, sondern auch durch die therapeutische Beziehung selbst: einen dynamischen Austausch, der auf Vertrauen, Verständnis und gemeinsamen, gegenseitigen Anstrengungen basiert.
Es bleibt fraglich, ob KI die Einzigartigkeit jedes Menschen wirklich erfassen kann. Fühlen sich Patienten nicht richtig verstanden, neigen sie dazu, ihre Antworten anzupassen, um die «richtige» Reaktion der KI zu erhalten, statt ihre echten Erfahrungen zu teilen - was langfristig ihr Verständnis von Krankheit, Identität und Genesung verändern kann.
Wichtig ist die Frage: Kann und sollte KI eine therapeutische Beziehung aufbauen? Wenn ja, wie würde diese aussehen und woran würde sie sich orientieren, angesichts der Grenzen der KI in Bezug auf Tugenden, Werte und Verantwortung?
KI-Entwickler entscheiden, welche menschlichen Eigenschaften ihre Systeme nachahmen - doch vielleicht ist es nicht zielführend, KI stets in menschlichen Begriffen zu betrachten.
Wir fragen oft, ob KI empathisch sein kann. Aber betrachten wir einmal eine andere Frage: Sollten wir KI vergeben? Beide Fragen vergleichen KI mit Menschen, aber nur die zweite Frage macht deutlich, wie begrenzt oder kontraintuitiv dieser Vergleich ist.
Wenn die Humanisierung problematisch ist, wie könnten wir dann sonst über KI in der Psychotherapie denken? Eine vielversprechende Perspektive besteht darin, dialogorientierte KI nicht als Quasi-Therapeuten, sondern als fiktive Figur zu behandeln. Ihr Dialog ist kein Ersatz für menschliche Fürsorge, sondern eine Simulation, die auf konstruktive Weise genutzt werden kann.
Fiktive Figuren in Geschichten können leiten, trösten und fantasievolle Möglichkeiten eröffnen. In ähnlicher Weise kann dialogorientierte KI, wenn sie als fiktive Figur betrachtet wird, als Begleiter für strukturierte Übungen, das Einüben von Fähigkeiten oder das Erkunden unterstützender Dialoge dienen. Der wesentliche Unterschied besteht darin, dass Fiktion ihre Grenzen sichtbar macht: Die Menschen wissen, dass sie es mit einer Simulation zu tun haben und nicht mit einem menschlichen Therapeuten. Dieses Bewusstsein könnte ihnen eine aktivere Rolle zuweisen und sie befähigen, KI kreativ und kritisch zu nutzen.
Diese Perspektive unterstreicht auch die Neuartigkeit der KI: Sie ist kein Mensch und sollte nicht ausschliesslich nach menschlichen Massstäben beurteilt werden. Stattdessen sollten wir uns fragen, wie ihre einzigartigen Fähigkeiten - Skalierbarkeit, ständige Verfügbarkeit, Datenverarbeitung und Dialogsimulation - verantwortungsbewusst eingesetzt werden können, um die professionelle Pflege zu ergänzen. Dabei ist Transparenz hinsichtlich ihres fiktionalen, simulierten Charakters von entscheidender Bedeutung. Wenn wir der Versuchung widerstehen, KI zu vermenschlichen, könnten wir ihr Potenzial vielleicht auf kreativere Weise erkunden.
Jana Sedlakova, Leiterin DSI Communities Ethics und Health
Jana Sedlakova ist Philosophin, Ethikerin und Postdoktorandin am Institut für Informatik der Universität Zürich. Sie leitet die DSI Communities Ethics und Health der Digital Society Initiative. In ihrer interdisziplinären Forschung fokussiert sie sich auf die Ethik der Künstlichen Intelligenz und die Zusammenarbeit zwischen Mensch und KI, insbesondere im Bereich des Gesundheitswesens.
Jana Sedlakova
Diese Kolumne erschien zuerst auf Inside IT
Footer
© 2023 Universität Zürich