谷歌推出轻量级端侧AI模型Gemma 3n,仅需2GB内存运行

AI资讯6天前发布 ainav
12 0

5月21日讯,在刚刚落幕的2025年谷歌I/O开发者大会上,谷歌正式发布了全新的Gemma 3n端侧多模态人工智能模型。这款创新性的AI解决方案能够在手机、平板电脑以及笔记本电脑等设备上实现本地运行,完美支持包括音频、文本、图片和视频在内的多种数据类型的处理任务。

据Gemma产品经理Gus Martins介绍,Gemma 3n在硬件兼容性方面表现优异,能够在内存小于2GB的设备上顺畅运行。该模型采用了与Gemini Nano相同的架构设计,但在性能表现上更为出色。Martins强调:”Gemma 3n为终端设备上的AI应用带来了前所未有的性能体验。”

值得注意的是,Gemma 3n的核心技术亮点在于其采用了谷歌DeepMind开发的Per-Layer Embeddings(PLE)技术。这项创新显著降低了模型的内存占用需求。尽管其参数量分别达到了50亿和80亿级别,但实际的内存消耗却仅相当于20亿和40亿规模的模型。

谷歌推出轻量级端侧AI模型Gemma 3n,仅需2GB内存运行

谷歌官方数据显示,Gemma 3n的内存占用最低可至2GB和3GB。通过PLE、KVC共享以及高级激活量化等技术优化,该模型在移动设备上的响应速度较前代产品提升了1.5倍,同时输出质量也优于之前的4B版本。

谷歌推出轻量级端侧AI模型Gemma 3n,仅需2GB内存运行

在多语言处理能力方面,Gemma 3n同样表现出色。尤其在日语、德语、韩语、西班牙语和法语等非英语语言领域表现尤为突出。在权威的多语言评测基准WMT24++中,该模型取得了高达50.1%的优异成绩。

谷歌推出轻量级端侧AI模型Gemma 3n,仅需2GB内存运行

目前,普通用户无需进行任何复杂设置,即可通过Google AI平台直接使用Gemma 3n服务。开发者则可以通过相应的API接口将该模型集成到自己的应用中,享受本地化AI处理带来的性能提升。

2025年谷歌I/O开发者大会专题报道

© 版权声明

相关文章