摘要一项新研究表明,ChatGPT在心理治疗场景中的回答通常比人类治疗师撰写的回答评分更高。研究人员发现,参与者在夫妻治疗情境中难以区分AI生成和人类治疗师撰写的回答。ChatGPT的回答通常更长,包含更多名词和形容词,提供了更丰富的上下文信息。这些额外的细节可能使其在心理治疗核心原则上的评分更高。研究结果凸显了AI在治疗干预中的潜在作用,同时也引发了关于其融入心理健康护理的伦理和实践问题的讨论。研究人员强调,专业人士需要参与AI的发展,以确保负责任的监督。 关键事实
研究背景根据2025年2月12日发表在开放获取期刊《PLOS Mental Health》上的一项研究,由俄亥俄州立大学的H. Dorian Hatch及其同事进行的研究表明,ChatGPT撰写的回答在心理治疗场景中通常比人类治疗师的回答评分更高。 随着生成式人工智能(AI)的某些优势逐渐显现,机器是否能够成为治疗师的问题受到了越来越多的关注。这一发现呼应了艾伦·图灵的预测,即人类将无法区分机器撰写的回答和人类撰写的回答。 尽管之前的研究发现人类难以区分机器和人类的回答,但最近的发现表明,AI能够以同理心撰写内容,并且这些内容在心理健康专业人士和自愿服务用户中的评分很高,甚至常常优于专业人士撰写的内容。 研究方法与结果在这项涉及800多名参与者的新研究中,Hatch及其同事发现,尽管参与者注意到了语言模式的差异,但当他们面对18个夫妻治疗情境时,很少有人能够识别出回答是由ChatGPT还是由治疗师撰写的。这一发现再次验证了艾伦·图灵的预测。 此外,ChatGPT撰写的回答在心理治疗核心指导原则上的评分普遍更高。进一步分析显示,ChatGPT生成的回答通常比治疗师撰写的回答更长。在控制长度后,ChatGPT的回答仍然比治疗师使用了更多的名词和形容词。 考虑到名词可以用于描述人、地点和事物,而形容词可以提供更多上下文信息,这可能意味着ChatGPT比治疗师更广泛地进行了情境化处理。更广泛的情境化可能使受访者对ChatGPT的回答在治疗共同因素(所有治疗模式中为实现预期结果而共有的组成部分)上的评分更高。 研究意义作者认为,这些结果可能是ChatGPT有潜力改善心理治疗过程的早期迹象。特别是,这项工作可能会推动开发和测试心理治疗干预方法的不同方式。 鉴于越来越多的证据表明生成式AI在治疗环境中可能有用,并且它可能很快被整合到治疗环境中,作者呼吁心理健康专家提高技术素养,以确保AI模型由负责任的专业人员进行仔细训练和监督,从而提高护理质量和可及性。 结论作者补充道:“自近六十年前ELIZA发明以来,研究人员一直在争论AI是否可以扮演治疗师的角色。尽管仍有许多重要问题悬而未决,但我们的研究结果表明答案可能是‘是的’。” “我们希望我们的工作能够激励公众和心理健康从业者在AI与心理健康治疗整合的伦理、可行性和实用性方面提出重要问题,以免为时已晚。” 关于这项AI与心理治疗研究的新闻
注:本报告基于开放获取研究《When ELIZA meets therapists: A Turing test for the heart and mind》的内容整理。 (责任编辑:泉水) |