中国移动发布九天大模型3.0,核心技术开源

AI资讯14小时前发布 ainav
3 0

7月26日讯,在今日举办的2025世界人工智能大会“AI焕新产业共赢”企业人工智能产业发展论坛上,中国移动正式推出全新升级的“九天”基础大模型3.0版本

中国移动发布九天大模型3.0,核心技术开源

作为国务院国资委战新“百大工程”的最新成果,“九天”基础大模型3.0版本在“高安全、高可控、全国产、全行业”四大核心特性基础上实现了全面升级,重点围绕三大创新方向:

一、“九天众擎”语言大模型实现双维度性能突破

该语言大模型采用创新性可扩展至万亿级的MoE架构,并通过15T token多阶段预训练数据与全流程治理体系优化推理能力。同时,构建了独特的113域×53能⼒二维分级后训练框架,并结合动态强化学习策略,使复杂推理能力显著提升35%。

在权威评测中,“九天”大模型展现出卓越性能:在GPQA-Diamond评测中以77.67分位居全球第二,超越了DeepSeekR1和Qwen3;在ArenaHard V0.1评测中以67.2分领先全球;BFCL V3评测中也达到68分。同时,在专业场景应用中实现了零幻觉的精准表现。

基于全新语言大模型,中国移动推出多款专用模型。其中,“九天代码大模型”支持包括Python、Java等在内的10多种主流编程语言,并提供代码生成、注释生成、单元测试生成及智能问答等多种功能。在EvalPlus、MHPP、LivecodeBenchv6等多个评测榜单中均取得优异成绩。

“九天数学大模型”同样表现出色,无论短思考还是长思考模式均达到业界领先水准,多项指标优于Qwen 2.5 Math、Qwen3等同参数量级模型。

二、“九天善智”多模态大模型实现技术突破

该多模态大模型通过复杂时空建模、流匹配图片视频联合训练等创新技术,显著提升了对文本指令和图像视频的感知能力。结合图文交织数据训练,实现了高质量图像视频生成与多轮对话式精确编辑操作。

在具体应用中,该模型支持多轮精准局部修改功能,例如文字替换、背景调整、元素添加等复杂操作。

评测数据显示,“九天”多模态大模型在图理解和视频理解方面均表现优异:

  • 图像理解领域,模型在MMStar、HallusionBench和OCRBench等任务中分别取得82.2、64.3和94.9的高分;

  • 视频理解方面,在Videomme和MVbench评测中均超越Qwen2-VL和InternVideo2等竞争对手。

三、核心技术全面开源

  • 开放了“九天数童”结构化数据大模型,提供JT-DA-8B模型及其后续版本的完整支持;

  • 开源“九天数学大模型”,涵盖 JT-Math-8B 系列模型及相关技术资料;

  • 开放“九天代码大模型”,提供JT-Coder-8B系列模型及配套资源;

  • 首次公开结构化数据模型评测体系TReB,包含6大任务、34项能力评估标准;

  • 推出行业复杂指令评测数据集CCR-Bench,包含174条高质量工业场景指令。

以上所有内容现已在焕新社区、Github、HuggingFace等多个平台上线。

据论坛消息,“九天”人工智能研究院将于8月发布本次更新的技术深度解读

2025世界人工智能大会专题报道

© 版权声明

相关文章