8月4日讯
今日,腾讯混元正式发布了四款开源的小尺寸模型,分别为0.5B、1.8B、4B、7B参数量。这些模型凭借其卓越的性能,仅需消费级显卡即可运行,完美适用于笔记本电脑、手机、智能座舱、智能家居等低功耗场景,并支持垂直领域的低成本微调。
目前,这四款模型已入驻GitHub和Huggingface等多个知名开源社区。同时,Arm、高通、英特尔、联发科技等主流消费级终端芯片平台均已宣布支持其部署。

此次开源的四个模型均属于融合推理架构,不仅推理速度更快,而且具有极高的性价比。用户可根据具体需求选择不同模式:快思考模式提供简洁高效的输出;慢思考模式则专注于解决复杂问题,具备更全面的推理步骤。
在性能表现上,这四个模型已实现与业界同尺寸模型的对标,在语言理解、数学能力、逻辑推理等多个领域均达到领先水平,并在多个公开测试集上取得了优异成绩。


这四款模型的另一大亮点在于其智能体(Agent)和长文本处理能力。与之前开源的Hunyuan-A13B模型类似,通过精细的数据构建和强化学习奖励信号设计,显著提升了模型在任务规划、工具调用、复杂决策及反思等方面的性能表现。实际应用中,这些模型已成功胜任深度搜索、Excel操作、旅行攻略规划等多样化任务。
值得一提的是,这四个模型的最长上下文窗口达到256K,相当于一次性处理40万汉字或50万个英文单词的内容。这意味着它们可以完整理解并记忆类似《哈利波特》三部曲的全部情节细节,并能基于这些内容进行深入讨论。
在部署方面,这四个模型均可通过单卡完成部署,部分设备如PC、手机、平板等无需额外硬件支持。同时,它们对主流推理框架(例如SGLang、vLLM和TensorRT-LLM)以及多种量化格式均提供了全面支持。
从应用场景来看,这四款小尺寸模型能够满足端侧到云端、通用场景到专业领域等多样化的部署需求。目前,它们已在腾讯多个业务中得到实际应用:
借助超长上下文能力,腾讯会议AI小助手和微信读书的AI问书功能实现了对完整会议内容和整本电子书的一次性理解和处理。
在端侧应用方面,腾讯智能座舱通过双模型协作架构有效解决了车载环境下的实际问题,充分发挥了模型低功耗、高效推理的特点。
面对高并发场景,搜狗输入法利用多模态联合训练机制提升了嘈杂环境下的识别准确率;腾讯地图则通过多模型架构优化了用户交互体验;微信输入法的「问AI」功能实现了输入框与AI对话的无缝衔接。
在垂直行业应用中,金融AI助手通过Prompt优化和少量数据微调达到了95%+的意图识别准确率;游戏翻译和QQ飞车手游中的NPC则充分利用了模型的语言理解能力,在多语言支持、方言翻译及智能对话方面展现了卓越性能。
在大语言模型领域,腾讯混元此前已开源了参数量达52B的Hunyuan Large和首个混合推理MoE模型Hunyuan-A13B。
在多模态领域,混元还开放了完整的生成能力和工具集插件。截至目前,基于其能力已衍生出3000个图像、视频相关模型,并先后开源了文生图、视频生成和3D生成等技术。最近,腾讯刚刚发布了并开源了混元3D世界模型1.0。
以下是开源地址:
【GitHub】
-
Hunyuan-0.5B:https://github.com/Tencent-Hunyuan/Hunyuan-0.5B
-
Hunyuan-1.8B:https://github.com/Tencent-Hunyuan/Hunyuan-1.8B
-
Hunyuan-4B:https://github.com/Tencent-Hunyuan/Hunyuan-4B
-
Hunyuan-7B:https://github.com/Tencent-Hunyuan/Hunyuan-7B
【HuggingFace】
-
Hunyuan-0.5B:https://huggingface.co/Tencent-Hunyuan/Hunyuan-0.5B
-
Hunyuan-1.8B:https://huggingface.co/Tencent-Hunyuan/Hunyuan-1.8B
-
Hunyuan-4B:https://huggingface.co/Tencent-Hunyuan/Hunyuan-4B
-
Hunyuan-7B:https://huggingface.co/Tencent-Hunyuan/Hunyuan-7B