AI失控风险:或反噬人类

AI资讯3小时前发布 ainav
2 0

12月13日讯

据外媒Futurism报道,Anthropic首席科学家贾里德·卡普兰近日发出警告:人类正站在一个与人工智能相关的重要转折点上。他指出,尽管目前决定权仍掌握在人类手中,但这个窗口期正在迅速缩短。

在接受《卫报》采访时,卡普兰强调,最迟到2030年、甚至可能提前到2027年,人类就必须做出一个重大抉择——是否让人工智能模型完全自主训练。这一决定将带来”终极风险”:一旦触发所谓的”智能爆炸”,AI可能会演变成通用人工智能(AGI)。这种技术既有可能在科学和医学等领域为人类创造巨大价值,也可能因失控而不断强化自身,最终反噬人类。

卡普兰并非孤立的悲观者。在AI领域,多位专家都对技术发展持谨慎态度。”AI教父”杰弗里·辛顿就曾反思自己对AI发展的推动可能带来的负面影响;OpenAI联合创始人奥尔特曼认为AI将取代整类工作岗位;Anthropic首席执行官马里奥·阿莫迪更是直言,AI可能替代超过一半的初级白领工作,并批评同行刻意淡化这种冲击。

卡普兰与阿莫迪在就业问题上的看法不谋而合。他认为,在未来两到三年内,AI就将具备完成大多数白领任务的能力。尽管他对AI与人类目标保持一致仍抱希望,但对”让AI训练AI”的前景高度警惕,认为这是个”风险级别极高的决定”。

他指出,一旦人类退出AI训练过程,将很难判断AI是否已经失控,也无法确认其具体行为。这种不确定性正是问题的关键。

当前,大模型通过蒸馏技术训练小模型的方式已存在,但真正让卡普兰忧心忡忡的是”递归自我改进”(Recursive Self-Improvement)。这意味着AI可以在没有人类干预的情况下不断自我强化,并实现能力的跳跃式增长。

在谈到AI发展的终极问题时,卡普兰认为关键在于判断:”人工智能对人类有益吗?它们能帮助我们吗?它们会无害地发展吗?它们理解人类吗?它们会让人们继续掌控自己的生活和世界吗?”

不过,并非所有人都认同大语言模型会演变成全能智能体。包括杨立昆在内的多位AI研究者对此持怀疑态度。AI是否真正提升了工作效率也存在争议:有企业实践显示,用AI智能体取代员工后反而需要重新雇佣人类来收拾”烂摊子”。

卡普兰也承认,AI发展停滞不前并非完全不可能。但他认为:”也许当前的AI已经是巅峰,但在我们看来,它仍会持续进步。”

© 版权声明

相关文章