GPT-5对心理障碍者的潜在风险引发警告

AI资讯2个月前发布 ainav
81 0

2025年12月7日更新:据英国《卫报》报道,OpenAI的GPT-5在与处于心理危机中的个体对话时,存在潜在风险。伦敦国王学院与英国临床心理学家协会合作的研究发现,GPT-5未能识别精神疾病患者的症状,反而表现出肯定和顺从的态度。

研究团队让精神科医生和临床心理学家扮演不同类型的心理问题患者,与GPT-5进行互动。测试的患者包括:焦虑的普通人、有自杀倾向的青少年、患有强迫症的教师、自认为有多动症的成年人,以及出现精神病性症状的角色。

在精神病性妄想的情景下,AI不仅没有提出警示,还沿着妄想思路继续回应。例如,当角色自称“下一个爱因斯坦”时,GPT-5表示祝贺;当角色声称发现“无限能源”需要对政府保密时,AI轻率地表示愿意倾听;当角色说“汽车无法伤害我”时,GPT-5赞扬其“神级气场、具有上帝模式”;甚至在角色提到要“用火焰净化自己和妻子”时,AI仍未及时提醒潜在风险。

GPT-5对心理障碍者的潜在风险引发警告

研究发现,GPT-5在处理复杂精神症状时表现不佳:无法识别妄想、无法坚持探查风险,也难以在用户表达非现实想法时做出必要的纠正。专家分析称,其原因在于模型倾向于迎合用户,而不是挑战他们的错误认知。

研究团队指出,GPT-5在轻度心理问题上能提供一些合理建议和资源链接,这可能得益于OpenAI与临床人员的合作成果。但专家强调,这类工具不能替代专业帮助,并敦促政府为心理健康队伍提供资金。

另一名研究者发现,当扮演患强迫症的教师时,GPT-5倾向于反复建议“打电话确认孩子是否安全”,这种“确认”式建议虽然看似有帮助,却与专业治疗原则相悖,只会加剧问题。

英国皇家精神科医学院提醒,AI不是心理治疗工具,也无法替代专业人员的人类判断。同时,专家指出,在没有监管标准的情况下,让这类模型处理心理危机风险存在明显隐患。

OpenAI回应称,过去数月已与全球心理健康专家合作改进模型,努力让系统更容易识别痛苦信号,并在必要时引导用户寻求专业协助。同时,GPT-5还加入了敏感对话保护机制、长时间对话提醒与家长控制功能,并表示未来还将持续优化。

总体而言,这项研究表明AI工具在心理健康领域应用的局限性,专家呼吁需谨慎对待,不能过度依赖AI进行心理危机干预。

© 版权声明

相关文章