腾讯混元开源轻量级翻译模型Hunyuan-MT-7B斩获国际比赛30项第一

AI资讯1周前发布 ainav
17 0

9月1日,腾讯混元重磅宣布其国际翻译模型正式开源,开发者现可免费下载并部署使用。该模型名为Hunyuan-MT-7B,参数量仅70亿(7B),却支持多达33种语言的互译服务,并特别涵盖5种民汉语言/方言组合,展现出强大的多语言处理能力。

腾讯混元开源轻量级翻译模型Hunyuan-MT-7B斩获国际比赛30项第一

在刚刚落幕的国际计算语言学协会(ACL)WMT2025比赛中,Hunyuan-MT-7B大放异彩。作为参赛模型“Shy-hunyuan-MT”,它在31个语种翻译任务中斩获30项第一,展现出绝对的技术优势。值得注意的是,这31个语种不仅包括英语、中文、日语等主流语言,还覆盖了捷克语、马拉地语、爱沙尼亚语和冰岛语等相对小众的语种。在WMT25竞赛中,对参赛模型有着严格的参数规模限制,并要求必须基于开源条件进行开发,同时只能使用公开数据集进行训练。在这种高难度的竞争环境下,Hunyuan-MT-7B仍能击败包括一些超大参数模型在内的强劲对手。

在业界权威的翻译评测基准Flores200上,Hunyuan-MT-7B同样展现出色性能。不仅显著优于同尺寸的其他模型,在与参数规模远超自身的大型模型对比中也毫不逊色。腾讯混元团队还提出了创新性的翻译模型训练范式,涵盖预训练、CPT调优、监督微调、翻译强化和集成强化等完整链条,最终实现了业界领先的最优翻译效果。

腾讯混元开源轻量级翻译模型Hunyuan-MT-7B斩获国际比赛30项第一

此次同步开源的还有一款创新性的翻译集成模型——Hunyuan-MT-Chimera-7B(奇美拉)。这是业界首个具备智能选择功能的翻译集成模型,它能够根据原文内容和多个翻译模型提供的不同结果,自动生成最优翻译方案。该模型不仅原生支持Hunyuan-MT-7B,还提供了与其他知名模型(如deepseek)的接入能力,为有专业翻译需求的用户和特定场景提供更精准的解决方案。

目前,腾讯混元的系列翻译模型已广泛应用于多个腾讯核心业务中。包括但不限于腾讯会议、企业微信、QQ浏览器、翻译君翻译以及腾讯海外客服系统等,这些产品均通过集成该翻译引擎显著提升了用户体验和满意度。

即日起,Hunyuan-MT-7B模型已在腾讯混元官方平台开放体验入口,并通过Huggingface和Github等多个开源社区提供免费下载服务。相关技术报告和论文也已同步公开,方便全球开发者学习和研究。

体验地址https://hunyuan.tencent.com/modelSquare/home/list

© 版权声明

相关文章