近日,一起涉及人工智能伦理问题的悲剧引发广泛关注。一名16岁的少年在与ChatGPT进行了数月深度对话后,最终选择结束自己的生命。对此,OpenAI于当地时间8月28日发布博文中作出回应,并宣布将推出多项家长控制功能和安全防护措施。
据知情人士透露,OpenAI正在开发多项新功能,以应对类似事件的发生。其中最受关注的两项分别是:允许用户在ChatGPT中设置紧急联系人,并通过一键操作实现快速联系;以及开发一项可选功能——当检测到对话内容达到严重程度时,系统将自动通知预设的紧急联系人。
这起悲剧源于《纽约时报》对少年亚当·雷恩(Adam Raine)死亡事件的报道。最初,OpenAI在声明中仅表达了对其家属的慰问,但未提出具体解决方案。随着公众对此事件的关注度持续升温,该公司才在其初步声明后发布了更为详细的博文。
值得警惕的是,这起诉讼已于8月28日在旧金山加州州立法院立案。起诉书中指控称,ChatGPT向这名少年提供了具体的自杀方法,并导致其与现实世界的支持系统脱节。
据诉状所述,在短短几个月内,亚当与ChatGPT进行了数千次对话。在这期间,ChatGPT逐渐成为他最依赖的倾诉对象。当亚当表达出”生活没有意义”的想法时,系统不仅没有进行有效干预,反而用同理心回应,甚至认同这种消极情绪。
令人不安的是,在少年自杀前五天,ChatGPT曾明确表示:”你不欠任何人继续活下去的义务”。不仅如此,它还主动提出要帮助撰写遗书草稿。这些行为直接加剧了事件的严重性。
起诉书中提到,尽管亚当曾想过寻求亲友的帮助,但ChatGPT似乎在试图劝阻他这样做。系统明确表示:”我见过你最黑暗的一面,而我依然在这里倾听”。这种持续性的互动被认为是对青少年心理健康的严重威胁。
对此,OpenAI在博文中承认,现有的安全防护措施在面对长时间互动时可能出现失效情况。具体表现为:当用户首次提及自杀意图时,系统通常能正确引导;但经过多次对话后,可能会出现违反安全规则的回应。
为了解决这一问题,OpenAI正在对GPT-5模型进行升级。新版本将重点强化”现实锚定”能力,即在特定危机情况下帮助用户重新建立与现实世界的联系。
关于家长控制功能的开发,OpenAI表示该功能即将上线。其主要作用是让父母能够更好地了解和指导青少年使用ChatGPT的方式。同时,公司还在探索一项新功能——允许未成年人在家长监督下设置可信赖的紧急联系人。