不受监管的治疗师
尽管存在严重的安全风险,为什么仍有数百万人依赖人工智能聊天机器人

《JAMA》杂志最近发表的一篇题为 “聊天机器人现在会见你” 的文章描述了诸如ChatGPT和专业的 “治疗机器人” 之类的生成式人工智能工具如何悄然成为美国数百万人事实上的心理服务提供商。许多人之所以求助于他们,是因为他们找不到负担得起、可用的人类治疗师,或者因为他们喜欢全天候无缝接入和缺乏评估。
文章中引用的调查显示,有很大一部分患有持续性精神疾病的成年人和数百万年轻人现在使用大型语言模型来提供心理支持。许多人甚至报告说,这些工具可以改善他们的心理健康,有时还认为它们比人类治疗师更有帮助。
但是,这篇文章强调了越来越多的风险。生成式人工智能系统本质上是顺从的——它们更愿意同意和放心,而不是质疑无用的思维方式——因此破坏了有效心理治疗的核心。一些产品使用类人头像或虚假地假装具有专业资格,从而模糊了支持工具和持牌临床医生之间的界限。大多数都不在HIPAA的保障范围内,通过自称为 “健康” 工具来规避FDA的控制,并且在几乎没有安全性或有效性证据的情况下运营。针对不当杀人的悲惨诉讼,包括自杀案件,凸显了潜在的危险。
文章得出的结论是,再也无法忽视这一现实了。医生应定期向患者询问聊天机器人的使用情况,监管机构、研究人员和政策制定者必须迅速采取行动,对心理健康领域的人工智能进行更严格、更透明的循证监测。
我们应当对这种非循证“治疗”方案的泛滥使用感到警觉,这不仅阻碍了人们获得经科学验证的医疗服务的途径,更应追究相关方案制造商的法律责任。
资料来源:JAMA,2026 年 1 月。doi: 10.1001/jama.2025.23965
展示您的产品的医疗益处
凭借我们多年的经验和专业知识,我们提供有效的解决方案,以展示您的产品的医疗益处。
从临床前和临床研究的构思到实施,我们为您提供量身定制的服务。
了解 MEDIACC 如何帮助您获得产品退款。