4月24日,一则关于OpenAI的重要消息引发了广泛关注:该公司计划推出自GPT-2以来的首个真正意义上的开源语言模型。尽管目前具体细节仍在逐步披露中,但这一动向已经引起了技术界的高度关注。
据TechCrunch报道,OpenAI研究副总裁Aidan Clark正在主导这一开源项目。消息人士透露,该项目仍处于早期阶段,预计将在今夏初正式发布。与当前市场上其他开源模型不同,OpenAI的目标是打造一个在推理能力上更具优势的开源解决方案,并且将采用极其宽松的许可协议,最大限度地减少使用限制,避免重蹈Llama和Gemma等项目的覆辙——这些项目此前因过于严格的使用条款而遭到了社区的批评。
近年来,OpenAI面临着来自全球竞争对手的强大压力。以中国的人工智能公司深度求索(DeepSeek)为例,其通过开源策略成功推出了广受欢迎的模型,并吸引了大量开发者和企业的参与。这种开放共享的姿态与OpenAI以往相对保守的做法形成鲜明对比,也成为推动该公司重新思考开源战略的重要因素。
据知情人士介绍,即将发布的开源模型将采用”输入文本,输出文本”的交互模式,并可能借鉴Anthropic等公司的最新成果,在推理功能的开关设置上赋予开发者更大的自由度。这意味着用户可以根据实际需求选择启用或关闭推理功能——虽然这一特性会带来额外的计算延迟,但它能够显著提升生成内容的准确性和相关性。
值得注意的是,OpenAI首席执行官山姆·阿尔特曼(Sam Altman)近期在多个场合表达了对现有开源策略的反思。他在今年1月的Reddit AMA中坦承:”我个人认为我们需要重新考虑开源战略。并非所有OpenAI员工都认同这一观点,但这也不是我们当前的核心任务…… 我们会继续发布更好的模型,但与过去相比,我们的领先优势可能会逐渐缩小。”
对于即将发布的开源模型,Altman表示团队将进行严格的”红队测试”和安全评估。消息人士透露,OpenAI计划为该模型发布一份详细的”技术报告卡”(Model Card),其中将包含内部和外部的基准测试结果以及安全性评估数据。正如Altman在上个月的X平台上所言:”我们将按照既定的标准对这一模型进行全面评估,就像对待其他任何产品一样。考虑到发布后模型可能被修改的风险,我们还计划进行额外的安全验证工作。”
尽管如此,OpenAI近期的一些做法也引发了争议。有批评指出,公司匆忙推进近期模型的安全测试,并未对外公开其他模型的评估结果,这在一定程度上损害了其作为技术领先者的信誉。同时,Altman在2023年11月短暂卸任前涉嫌误导管理层关于模型安全审查的情况,这一指控也为OpenAI的开源战略蒙上了阴影。