Rückblick auf den Großen Ratschlag „Künstliche Intelligenz (KI) und Psychotherapie“ am 3. Dezember 2025
KI erreicht zunehmend den psychotherapeutischen Alltag: Patientinnen und Patienten bringen digitale Vorinformationen mit, experimentieren mit Chatbots oder suchen im Netz nach Orientierung. Zugleich stellt sich die Frage, wie diese Entwicklungen fachlich und verantwortungsvoll einzuordnen sind. Der Große Ratschlag „Künstliche Intelligenz (KI) und Psychotherapie“ der Psychotherapeutenkammer Nordrhein-Westfalen am 3. Dezember 2025 widmete sich genau diesem Spannungsfeld. Die Delegierten der 6. Kammerversammlung der Psychotherapeutenkammer Nordrhein-Westfalen kamen in der Geschäftsstelle und online zusammen, um technologische, rechtliche und wissenschaftliche Perspektiven zu bündeln und Impulse für die Praxis zu gewinnen.
KI als gestaltbare Technik
Zur Eröffnung betonte Vorstandsmitglied Oliver Kunz , KI sei zunächst einmal Technik – ein Werkzeug, das neue Möglichkeiten eröffne. Welche Folgen dies für die psychotherapeutische Versorgung habe, hänge davon ab, wofür KI genutzt werde: Sie könne helfen, Qualität zu verbessern und Behandelnde zu entlasten, aber auch entwickelt werden, um menschliche Therapeutinnen und Therapeuten zu ersetzen. KI beeinflusse das Verhalten vieler Hilfesuchender und gehöre bereits zum Alltag. Umso wichtiger sei es, dass die Profession diese Entwicklung aktiv mitgestalte. Technik könne Prozesse erleichtern – sie könne aber keine therapeutische Beziehung tragen.
KI-Nutzung bei Kindern und Jugendlichen: Chancen und Risiken
Diese Dynamik griff Stefan Lüttke auf, Wissenschaftlicher Mitarbeiter am Lehrstuhl Klinische Psychologie und Psychotherapie der Universität Greifswald. Er verdeutlichte, dass viele Kinder und Jugendliche KI-Tools bereits regelmäßig nutzen würden – zunächst für schulische Zwecke, inzwischen aber auch vermehrt zur Bewältigung psychischer Belastungen. Sogenannte Chatbots würden für emotionale Unterstützung, Problemlösung oder Gesprächssimulation eingesetzt.
Gerade aus dieser frühen und unkontrollierten Nutzung leiteten sich erhebliche Risiken ab. Stefan Lüttke verwies auf Studien, die zeigten, dass KI-Systeme in sensiblen Situationen häufig unzureichend und unpassend reagieren: Krisenhinweise würden nicht zuverlässig erkannt, Notfallsituationen unvollständig oder falsch adressiert, und in einigen Fällen träten bei Chatbots Halluzinationen auf. Hinzu kämen Verzerrungen in den Trainingsdaten, die zu unangemessenen Empfehlungen führen könnten. Solche Fehlreaktionen träfen vor allem vulnerable Gruppen wie Kinder und Jugendliche, die KI-Angebote gerade wegen ihrer scheinbaren Unvoreingenommenheit nutzen würden, erläuterte Stefan Lüttke. Sein Fazit: KI sei längst Teil der Lebenswelt junger Menschen; angesichts dieser Dynamik müsse die Profession selbst für eine klare fachliche Einordnung sorgen – sonst entstünden die Standards an anderer Stelle, die nicht den ethischen Grundlagen der Psychotherapie folgen.
Auch eine Frage der Haftung: rechtliche Perspektiven auf den Einsatz von KI
Vor diesem Hintergrund stellte sich die Frage, was beim Einsatz von KI in der Psychotherapie rechtlich überhaupt zulässig ist. Prof. Dr. Sigrid Lorz, Professorin für Medizinrecht an der Universität Greifswald, erläuterte, dass KI-gestützte Anwendungen derzeit als sogenannte „Neulandmethoden“ einzuordnen seien. Das bedeutet: Ihr Einsatz könne sinnvoll sein, sei aber noch nicht als allgemein anerkannte Standardmethode etabliert. Behandelnde müssten Chancen und Risiken daher besonders sorgfältig abwägen. Zentrale Behandlungsschritte wie Diagnostik, Indikation und Therapieplanung seien hingegen nicht delegierbar, da sie den Kern therapeutischer Verantwortung bilden. KI könne unterstützen, müsse aber jederzeit kontrollierbar bleiben – insbesondere im Umgang mit vulnerablen Gruppen, so die Rechtsexpertin.
Doch was bedeutet das für die Verantwortlichkeit im konkreten Fall – wer haftet, wenn KI fehlerhaft reagiert? Im Haftungsrecht beschrieb Prof. Dr. Sigrid Lorz eine differenzierte Rollenverteilung: Hersteller haften für Produktmängel, Betreiber für die sichere Integration und Pflege der Systeme, Psychotherapeutinnen und Psychotherapeuten hingegen für eigenes Fehlverhalten, etwa wenn sie KI-Empfehlungen ungeprüft übernehmen. Mit der kommenden europäischen KI-Verordnung werde deutlicher als zuvor festgeschrieben, dass KI-Systeme einer fortlaufenden menschlichen Aufsicht bedürfen. Die Juristin sieht darin zugleich die inhaltliche Grenze ihres Einsatzes: Psychotherapie erfordere verantwortliche Entscheidungen und ein personales Gegenüber. KI könne unterstützende Hinweise liefern, aber nicht an die Stelle dieser Verantwortung treten.
Wie KI genutzt wird – und wo sichere Rahmenbedingungen notwendig sind
Dr. Mareike Hillebrand von der Abteilung für Klinische Psychologie und Psychotherapie der Universität Ulm rückte die Bewertung aktueller KI-Anwendungen und deren Akzeptanz in den Mittelpunkt. Öffentliche Debatten fragten oft zugespitzt, ob KI psychotherapeutische Rollen übernehmen könne. Empathie lasse sich zwar simulieren, so die Referentin, doch bleibe offen, ob das für therapeutische Prozesse tragfähig sei. Erste Nutzerbefunde deuteten auf punktuelle Offenheit, zugleich aber auf deutliche Vorbehalte – u.a. beim Datenschutz. Auch in der Profession falle das Bild gemischt aus: In einer Befragung von rund 100 Psychotherapeutinnen und Psychotherapeuten werde KI vor allem in administrativen und diagnostischen Bereichen als hilfreich eingeschätzt. Chatbot-basierte oder personalisierte Interventionen würden deutlich kritischer bewertet. Ein zentrales Hindernis sei mangelndes Wissen über solche Systeme.
Besondere Aufmerksamkeit widmete Dr. Mareike Hillebrand den Risiken unregulierter generativer Modelle. Studien zeigten, dass Antworten in sensiblen Situationen – etwa bei Suizidalität oder psychotischen Symptomen – oft verzerrt ausfielen und Sicherheitsmechanismen umgangen werden könnten. Aus ihrer Sicht folgt daraus eine klare Linie: Generative KI sei kein Medizinprodukt und nicht auf therapeutische Sicherheit ausgelegt, sondern verfolge derzeit vor allem wirtschaftliche Interessen. Potenzial bestehe nur, wenn Systeme fachlich entwickelt, supervidiert und sicher eingebettet seien. Die größere Gefahr liege darin, die Entwicklung unreflektiert anderen Akteurinnen und Akteuren zu überlassen, da Hilfesuchende solche Angebote ohnehin nutzen würden.
Ausblick: KI als gemeinsames Gestaltungsfeld
Im abschließenden Austausch zeigten sich viele überzeugt, dass KI die psychotherapeutische Versorgung spürbar verändern werde. Die Teilnehmenden diskutierten gemeinsam mit den Referenten , wo KI entlasten und Zugänge verbessern könne und wo klare fachliche und rechtliche Grenzen unverzichtbar bleiben. Einigkeit bestand darin, dass KI Psychotherapie als menschlich geprägten Prozess sinnvoll ergänzen, aber nicht ersetzen kann. Die Debatten verdeutlichten zugleich, dass die Profession ihre Rolle aktiv definieren muss – nicht nur im Sinne der eigenen Praxis, sondern auch als Orientierung für Patientinnen und Patienten. Der Ratschlag zeigte damit: KI ist gestaltbares Terrain, und der Berufsstand verfügt über das Wissen und die Haltung, diese Entwicklung verantwortungsvoll mitzugestalten.

