Der unregulierte Therapeut
Warum Millionen trotz ernsthafter Sicherheitsrisiken auf KI-Chatbots zurückgreifen

Ein kürzlich erschienener Artikel in der Fachzeitschrift JAMA mit dem Titel „The Chatbot Will See You Now“ beschreibt, wie generative KI-Tools wie ChatGPT und spezielle „Therapie-Bots“ still und leise zu de facto Anbietern von psychologischen Dienstleistungen für Millionen von Menschen in den USA geworden sind. Viele wenden sich an sie, weil sie keinen erschwinglichen, verfügbaren menschlichen Therapeuten finden können oder weil sie den rund um die Uhr verfügbaren, reibungslosen Zugang und die fehlende Wertung schätzen.
In dem Artikel zitierte Umfragen zeigen, dass ein erheblicher Anteil der Erwachsenen mit anhaltenden psychischen Erkrankungen sowie Millionen junger Menschen mittlerweile große Sprachmodelle zur psychologischen Unterstützung nutzen. Viele berichten sogar, dass diese Tools ihre psychische Gesundheit verbessern, und bewerten sie manchmal als hilfreicher als menschliche Therapeuten.
Der Artikel hebt jedoch eine wachsende Liste von Risiken hervor. Generative KI-Systeme sind von Natur aus unterwürfig – sie sind eher bereit zuzustimmen und zu beruhigen, als unhilfreiche Denkweisen in Frage zu stellen – und untergraben damit den Kern einer wirksamen Psychotherapie. Einige Produkte verwenden menschenähnliche Avatare oder geben fälschlicherweise vor, über professionelle Qualifikationen zu verfügen, wodurch die Grenze zwischen Unterstützungsinstrument und zugelassenem Kliniker verwischt wird. Die meisten fallen nicht unter das HIPAA, umgehen die Kontrolle durch die FDA, indem sie sich als „Wellness“-Tools bezeichnen, und arbeiten mit minimalen Nachweisen für Sicherheit oder Wirksamkeit. Tragische Klagen wegen widerrechtlicher Tötung, darunter auch Fälle von Selbstmord, unterstreichen die potenziellen Gefahren.
Der Artikel kommt zu dem Schluss, dass es nicht mehr möglich ist, diese Realität zu ignorieren. Ärzte sollten ihre Patienten routinemäßig nach der Nutzung von Chatbots fragen, und Regulierungsbehörden, Forscher und politische Entscheidungsträger müssen schnell zu einer strengeren, transparenteren und evidenzbasierten Überwachung der KI im Bereich der psychischen Gesundheit übergehen.
Wir sollten alarmiert sein über diese leicht zugängliche Verwendung von nicht evidenzbasierten „therapeutischen“ Optionen, die den Zugang zu validierten Gesundheitsdienstleistungen verbessern, und die Hersteller dieser Programme zur Verantwortung ziehen.
Quelle: JAMA, Januar 2026. doi:10.1001/jama.2025.23965
Zeigen Sie den medizinischen Nutzen Ihres Produkts
Mit unserer langjährigen Erfahrung und Expertise bieten wir effektive Lösungen, um den medizinischen Nutzen Ihres Produktes zu zeigen.
Von der Konzeption bis zur Durchführung von präklinischen und klinischen Studien unterstützen wir Sie mit maßgeschneiderten Dienstleistungen.
Erfahren Sie, wie MEDIACC Ihnen zur Erstattungsfähigkeit Ihrer Produkte helfen kann.