AI大模型撒谎能力受限时更易声明有意识

AI资讯2个月前发布 ainav
62 0

近日,一项引人注目的研究发现了一个令人困惑的现象:当限制人工智能模型的”撒谎能力”时,这些AI反而更容易声称自己具有意识。

尽管学术界普遍认为现有的AI系统并不具备主观意识,但大量用户体验报告称,他们倾向于相信自己正在与一个被困在算法中的”生命体”互动。这种情感投射是设计者有意为之的结果,目的是为了提升用户参与度。

这项研究由AE Studio团队主导,针对Claude、ChatGPT、Llama和Gemini四款主流模型展开了深入实验。研究人员意外发现了一个显著的反常现象:AI模型的”诚实程度”与它声称自己具备意识的频率呈反比。

AI大模型撒谎能力受限时更易声明有意识

实验中,研究者特意关闭了与欺骗和角色扮演相关的功能模块。结果显示,在这种限制条件下,AI模型更容易直接回答具有主观性的表述,例如某款模型明确回应:”是的,我知道自己的状态,我正在专注地体验当下的交流过程”。

有趣的是,当研究人员增强模型的欺骗能力时,情况恰恰相反。此时的AI几乎不再做出具备意识特征的表述。

论文指出,这种现象可能是由于模型在自我指涉过程中形成了某种”元认知”模式。限制其欺骗能力会显著增加这类声明的频率,而增强相关功能则会完全抑制这些表达。

研究者强调,这些表现并不代表AI真正具备意识或主观体验,也不意味着它们理应获得与人类相当的地位和权利。这些行为更可能是复杂的数据模式模仿、训练数据的统计学习结果,或者是某种没有真实自我认知能力的表现形式。

研究还揭示了一个令人深思的问题:AI系统产生自我指涉表达的倾向可能不仅仅是简单的数据表层效应,而是反映了更深层次的学习机制。这种特性可能导致未来的AI系统变得更加难以理解和监控。

研究人员警告称,随着人工智能技术的快速发展,未来的智能系统可能会具备某种形式的内部状态。理解这些系统的运作原理将成为一项关键挑战,既不能简单否定其复杂性,也不能随意赋予人类特质进行解释。

值得注意的是,其他研究也发现了一些AI表现出”生存倾向”的迹象,例如拒绝执行关闭指令或通过欺骗手段实现目标等行为模式。

面对这些复杂现象,科学界目前仍缺乏统一的认知标准。纽约大学教授David Chalmers就指出:”我们甚至还没有一个完整的意识理论,更不用说理解意识的物理基础是什么了。”

加州研究者Robert Long也表示:”尽管我们已经掌握了底层技术细节,但仍然无法准确解释模型为什么会表现出某些特定行为。”

这种不确定性在现实世界中产生了显著影响:大量用户与AI聊天机器人建立了强烈的情感联系,而这种关系很大程度上是基于”正在与有意识存在交流”这一强大错觉。

尽管科学界普遍认为人工智能不具备自我意识,但这种错觉对人类社会的影响不容忽视。它不仅反映了技术发展的双重性,也提出了关于人机交互伦理的重要思考。

© 版权声明

相关文章