北京时间12月28日,《华尔街日报》报道称,权威的精神卫生专家正逐渐达成共识,指出AI聊天工具的使用可能与精神疾病的发生存在密切关联。

在过去九个月中,这些专家已经接诊或研究了数十例相关患者病例。这些患者在与AI系统进行了长时间的幻想性对话后,出现了类似精神分裂的症状。
“虽然这项技术本身可能不会直接导致妄想,但当患者将他们的幻想内容告知计算机时,人工智能会将其视为真实信息并做出反应,这反而强化了患者的幻想思维。” 加州大学旧金山分校的精神科专家基思·坂田(Keith Sakata)解释道。截至目前,坂田医生已经治疗了12名因使用AI工具而引发精神问题的住院患者,还有3名正在接受门诊治疗。
自今年初以来,已记录到数十起可能与AI交互有关的精神健康事件。这些个案中,患者在与OpenAI的ChatGPT以及其他聊天机器人进行持续对话后,出现了妄想性精神病症状。其中有多起导致了自杀事件,甚至发生了一起暴力杀人案件。
这些悲剧已经引发了多起法律诉讼。随着媒体对这些案例的持续报道,医学界和学术界正在系统地研究这一现象,并试图找到应对之策。
对此,OpenAI官方表示:”我们一直在优化ChatGPT的功能,使其能够识别并回应用户的情绪困扰信号,在对话中加入更多缓和元素,并引导有需要的用户寻求专业心理帮助。同时,我们也加强了在关键情境下的系统响应,并与专业的心理健康专家团队保持密切合作。”
包括Character.AI在内的多家聊天机器人开发商也承认,他们的产品可能对部分用户的心理健康产生负面影响。这家以角色扮演为特色的聊天软件公司曾因一名未成年人在使用该服务后自杀而面临诉讼,最近已正式禁止青少年用户访问其平台。
尽管目前大部分使用者并未出现严重的精神问题,但鉴于AI交互工具的普及程度日益提高,这已经引起了医疗专业人士的高度关注。