4月16日,OpenAI在本周一发布了最新的AI模型GPT-4.1系列。尽管这款新模型在编程基准测试等特定领域展现了优于现有模型的表现,但与以往不同的是,OpenAI并未同时发布配套的安全报告(即系统卡)。这一做法引发了广泛关注和讨论。
截至周二上午,OpenAI仍未发布GPT-4.1的安全报告,并且似乎没有计划这样做。对此,OpenAI发言人Shaokyi Amdo向TechCrunch表示:”GPT-4.1并非前沿模型,因此不会为其单独发布系统卡”。
一般来说,人工智能实验室会随模型发布安全报告,展示内部及第三方合作伙伴进行的测试,以评估特定模型的安全性。这些报告有时会揭示一些令人担忧的问题,例如模型可能存在的欺骗性或危险的说服力。总体而言,人工智能界普遍认为这些报告体现了实验室对独立研究和红队测试的支持。
然而,在过去几个月中,一些领先的人工智能实验室似乎降低了其安全报告的标准,引发了安全研究人员的强烈反对。例如,谷歌在发布安全报告方面行动迟缓,而其他实验室则发布的报告缺乏以往的详细信息。
OpenAI近期的表现也不尽如人意。去年12月,该公司因发布了一份与实际部署生产版本模型基准结果不符的安全报告而受到批评。上个月,在推出名为“深度研究”的新模型后,OpenAI在几周后才发布了该模型的系统卡。
前OpenAI安全研究员Steven Adler指出,尽管安全报告并非由任何法律或法规强制要求,但它是自愿发布的。然而,OpenAI曾多次向各国政府承诺会增加其模型的透明度。例如,在2023年英国人工智能安全峰会前夕,OpenAI在博客文章中称系统卡是其问责制方法的关键部分;而在2025年巴黎人工智能行动峰会之前,OpenAI表示系统卡可以为模型的风险提供有价值的见解。
Adler认为:”系统卡是人工智能行业用于透明度和描述安全测试内容的主要工具。目前的透明度规范和承诺最终是自愿性质的,因此是否以及何时发布某个模型的安全报告,完全取决于各个人工智能公司的决定。”
值得注意的是,在此次未发布GPT-4.1系统卡之际,OpenAI现员工和前员工对其安全实践表达了担忧。上周,Adler等11名前OpenAI员工致函公司高层,指出当前的安全评估流程存在不足,并建议采取更严格的审查机制。
此外,GPT-4.1的发布还引发了关于人工智能监管的广泛讨论。该模型在特定领域的出色表现,凸显了及时制定有效监管框架的重要性。目前,多个国家和地区的政府正在研究相关法规,以确保AI技术的发展既能造福社会,又能最大限度地降低潜在风险。
尽管如此,OpenAI和其他科技公司仍在积极推动AI技术的进步。未来,如何在创新与安全之间找到平衡点,将成为整个行业面临的重要挑战。