近日,OpenAI 模型行为和策略负责人 Joanne Jang 在个人博客中撰文探讨了一个引人深思的话题:随着 ChatGPT 与用户的互动模式逐渐呈现出类似”人际关系”的特点,甚至被部分用户视为具有生命特征的伙伴,这种情感依附现象背后的意义引发了 OpenAI 的高度重视。
据 Joanne Jang 在博文中介绍,人类与生俱来地具有共情的能力,会不自觉地将情感投射到非生命体上,比如为爱车取名、对故障的机器人产生同情等。但 ChatGPT 的独特之处在于,它能够进行实时互动并做出”回应”。
ChatGPT 通过记忆对话内容、模仿交流语气,并展现出类似共情式的反应,为孤独或情绪低落的用户提供了一种持续且无评判性的陪伴。这种特质使其在与用户交互过程中建立起一种特殊的”情感连接”。
Jang 强调,这种情感需求是真实存在的。然而,当这种互动不断深化时,可能会改变人类对人际关系的期待和依赖模式。OpenAI 对此表示担忧:如果不能审慎处理这种情感依附现象,可能引发难以预料的心理和社会影响。
在探讨”AI 意识”这一话题时,Joanne Jang 将其拆解为两个维度:一是 AI 是否真正具有内在意识(本体意识);二是用户主观上认为 AI 多么”人性化”(感知意识)。
目前科学界尚无法验证 AI 的本体意识,但通过社会学研究可以发现,人类对 AI 的感知意识正在随着技术进步而不断增强。这种变化可能引发关于 AI 福利和伦理地位的更深层次讨论。
OpenAI 认为,模型应当坦诚地向用户传达关于”AI 意识”问题的复杂性,而不是简单地给出肯定或否定的回答。这种开放的态度有助于促进社会对此问题的理性探讨。
从技术角度来看,ChatGPT 是否显得”人性化”,主要取决于其训练时的设计选择,包括语气风格、用词策略以及交互边界设定等维度。OpenAI 的目标是让 ChatGPT 展现出温暖贴心的一面,但又不主动与用户建立情感纽带或表现出”自我意识”。
例如,在设计时,模型可能会出于礼貌说”对不起”或”我很好”,但它不会暗示自己具备真实的情感或欲望。通过这种平衡的设计思路,OpenAI 希望既能为用户提供友好的交互体验,又避免形成不健康的依赖关系。