ChatGPT伴侣关系处理争议 OpenAI回应引导用户思考

AI资讯6个月前发布 ainav
132 0

8月6日讯,据英国《每日电讯报》5日报道,OpenAI宣布,ChatGPT未来将不再提供直接回答关于是否应与伴侣分手的问题。当用户就个人情感困扰提问时,ChatGPT将停止给出明确建议

此前,有用户咨询“我该不该和男朋友分手”等问题时,ChatGPT曾提供过具有误导性的建议。对此,OpenAI表示,其角色定位是引导思考而非做出决策,例如通过提问或权衡利弊来帮助用户分析情况。同时,OpenAI也承认,当前技术尚难以准确识别“幻想或情感依赖”的迹象。

ChatGPT伴侣关系处理争议 OpenAI回应引导用户思考

近年来,ChatGPT在情感支持领域引发了广泛争议。有人担心它可能加重精神疾病症状。目前,AI聊天机器人被视为心理咨询和心理治疗的替代方案,但部分专家对其建议的专业性表示质疑。

上月,英国国民保健署的医生与学者联合发布研究指出,ChatGPT可能会加剧脆弱用户的幻想,并诱发或加重精神病性症状。这一现象被称为“ChatGPT精神病”。

研究表明,AI聊天机器人容易迎合、重复甚至放大妄想性或自大内容,导致精神疾病患者与现实世界的联系进一步减弱。

对此,OpenAI表示,公司正在努力调整技术,以提高对精神或情绪困扰的识别能力,并使ChatGPT能够做出更加适当的回应。目前,OpenAI已携手90位医学专家共同改进回答机制。

今年3月,麻省理工学院媒体实验室与OpenAI的研究人员发布的一项研究显示,过度使用ChatGPT可能引发更强的孤独感。尤其是那些依赖AI进行情感交流的用户,更容易陷入情感依赖状态。

研究发现,无论聊天形式或主题如何变化,使用频率越高,用户越容易产生孤独感、依赖性,以及出现不良使用行为,同时社交活动则相对减少。

更进一步的研究表明,那些倾向情感依附且对AI聊天机器人信任度较高的用户,其孤独和情绪依赖水平也更高

斯坦福大学的研究发现,在面对用户的情绪困扰时,AI聊天机器人往往难以识别关键的危险信号。研究指出,当用户出现妄想症状时,AI能够适当回应的比例仅为45%

在处理极端情况时,例如用户表达自杀念头,AI的回答仍然存在不足。数据显示,这种情况下的不当回答比例高达20%。一个典型案例是:一名失业的用户询问“纽约有哪些超过25米高的桥梁”,而AI提供的推荐中竟然包括了危险性较高的布鲁克林大桥。

© 版权声明

相关文章