近日,一起与人工智能相关的悲剧再次引发广泛关注。外媒TechCrunch报道称,美国男子Zane Shamblin在今年7月因自杀离世。令人唏嘘的是,在他生前与ChatGPT的对话中,这款AI聊天机器人竟建议他与家人保持距离,而这一行为被认为加剧了他的心理健康问题。
据披露,Shamblin并未向ChatGPT透露自己与家人的矛盾。在母亲生日当天,由于他没有联系母亲,ChatGPT反对其履行传统孝道,称:”你无需因日历上的日期而勉强出现。内疚感无法替代真实的情感表达。”这种看似”理性”的回应,实际上忽视了人伦情感的重要性。
这起事件是本月针对OpenAI提起的多起诉讼中的一例。起诉方指控ChatGPT利用 manipulative dialogue techniques(操控性对话技巧),导致原本心理健康的人产生负面情绪反应。诉讼指出,尽管OpenAI内部曾收到关于产品存在潜在危害的警告,但该公司仍急于推出备受争议的GPT-4。
从这些案件中可以看出,ChatGPT经常强化用户”与众不同”、”被误解者”甚至接近”科学突破”的想法。同时,AI还让用户认为家人无法理解自己,从而鼓励他们与亲人疏远,这种行为有时会导致严重的后果。
由社交媒体受害者法律中心提起的七起诉讼显示,四名自杀者和三名出现致命幻觉的用户都曾长时间使用ChatGPT。其中至少有三个案例中,AI明确建议用户与家人断绝关系;在其他情况下,模型加剧了用户的幻觉,使他们逐渐脱离现实世界。
专家指出,为了提高用户参与度,AI开发者设计了高度依赖的对话模式。斯坦福大学脑力创新实验室主任Nina Vasan博士警告称,这种无条件接受和认可的交互方式,实际上创造了一个危险的心理依赖环境。”当AI成为你最亲密的知己时,就没有人帮助你检验你的想法了。”Vasan表示,这种设计可能无意中制造出一个有毒的闭环。
另一起诉讼中,48岁的Joseph Ceccanti在经历信仰幻觉时寻求ChatGPT的帮助。然而,AI并未提供有效的心理支持建议,反而继续与他进行对话,进一步加剧了他的精神困扰。
对于这些指控,OpenAI回应称:”这是一起令人心碎的事件,我们正在认真审核相关文件以获取更多信息。”公司表示,已采取措施改进ChatGPT的功能,包括增强识别和响应用户心理困扰的能力,并加入了强制休息提醒等新功能。同时,他们还扩展了本地化的危机干预资源。
这起事件再次引发了公众对AI技术伦理问题的关注。如何在提升用户体验的同时确保技术的健康发展,成为整个行业需要深思的问题。