奥尔特曼 400 万年薪急招“末日主管”!上岗即“地狱模式”

AI资讯1个月前发布 ainav
26 0

奥尔特曼开出400万年薪加股权重金求贤:为OpenAI招募”AI安全总司令”

近日,OpenAI创始人山姆·奥尔特曼在社交平台发布了一则令人瞩目的招聘启事。他开出的条件是:55.5万美元的基础年薪(约合人民币四百万元)加上公司股权,这一职位名为——「准备工作负责人」(Head of Preparedness)。

在硅谷科技圈中,这样的薪酬待遇堪称凤毛麟角。高薪背后意味着:这不仅是一份极具挑战性的岗位,更是一个需要高度责任感和专业性的关键职位。

为AI发展买”保险”:打造安全防线

奥尔特曼对这个岗位的定位十分明确:“这是一个压力巨大的工作,从上任的第一天起就必须全身心投入”。这位”准备工作负责人”的主要职责是:

  • 未雨绸缪:在AI技术快速发展的同时,建立完善的安全防护机制。
  • 风险管控:确保强大的AI模型不会被滥用,避免潜在的严重危害。

奥尔特曼特别强调了两个令人深思的问题:

  1. 心理健康影响:AI系统在与用户的互动中,可能会对人类的心理健康产生负面影响,甚至引发精神疾病。
  2. 计算机安全威胁:当前的AI模型已经能够识别关键的安全漏洞,并且这种能力还在不断增强。

奥尔特曼坦言:”我们已经有了一套评估模型能力增长的基础框架,但如何将这些抽象的能力转化为具体、可执行的安全防线,仍是一个巨大的挑战。”

安全团队的震荡与反思

事实上,OpenAI近年来在AI安全领域的动作颇受外界关注。去年5月,公司曾备受争议地解散了核心研究团队——「超级对齐」小组。

这一决定引发了多名资深研究人员的离职:

  • 伊利亚·苏茨克韦尔(Ilya Sutskever): OpenAI研究实验室主任,选择离开寻找新的发展方向。
  • 简·莱克(Jan Leike): 在离职时公开批评公司,认为其在技术安全领域的投入严重不足。
  • 丹尼尔·科科塔约洛(Daniel Kokotajlo): 因对公司在AGI安全性上的承诺逐渐失去信心而选择辞职。

更令人担忧的是:随着核心团队成员的相继离开,OpenAI在AI安全领域的研究力量已经大幅缩水。据知情人士透露,目前相关研究人员的数量已较巅峰时期减少了一半。

行业竞速中的安全博弈

事实上,这不仅仅是一个公司内部的人事变动问题。当前,整个AI行业都面临着技术发展与风险管控之间的微妙平衡。

除了OpenAI之外,谷歌、Anthropic等科技巨头也在加速推进大模型研发,同时都在寻求建立各自的安全防护体系。

在这个背景下,奥尔特曼的”准备工作负责人”计划可以视为:为AI技术发展设置一道”高压防线”。这道防线不仅要能够评估和预警潜在风险,更要具备快速响应和修复的能力。

结语:安全是AI发展的生命线

在人工智能技术飞速发展的今天,谁能在确保技术可控的前提下实现突破,谁就能在未来竞争中占据先机。

对于OpenAI来说,这个”准备工作负责人”不仅要是一位优秀的技术专家,更需要具备战略眼光和行业洞察力。毕竟,这不仅关系到一个公司的未来,更影响着整个人类社会的技术发展方向。

本文来自微信公众号:新智元(ID:AI_era)

© 版权声明

相关文章