5月21日讯,在刚刚落幕的2025年谷歌I/O开发者大会上,谷歌正式发布了全新的Gemma 3n端侧多模态人工智能模型。这款创新性的AI解决方案能够在手机、平板电脑以及笔记本电脑等设备上实现本地运行,完美支持包括音频、文本、图片和视频在内的多种数据类型的处理任务。
据Gemma产品经理Gus Martins介绍,Gemma 3n在硬件兼容性方面表现优异,能够在内存小于2GB的设备上顺畅运行。该模型采用了与Gemini Nano相同的架构设计,但在性能表现上更为出色。Martins强调:”Gemma 3n为终端设备上的AI应用带来了前所未有的性能体验。”
值得注意的是,Gemma 3n的核心技术亮点在于其采用了谷歌DeepMind开发的Per-Layer Embeddings(PLE)技术。这项创新显著降低了模型的内存占用需求。尽管其参数量分别达到了50亿和80亿级别,但实际的内存消耗却仅相当于20亿和40亿规模的模型。
谷歌官方数据显示,Gemma 3n的内存占用最低可至2GB和3GB。通过PLE、KVC共享以及高级激活量化等技术优化,该模型在移动设备上的响应速度较前代产品提升了1.5倍,同时输出质量也优于之前的4B版本。
在多语言处理能力方面,Gemma 3n同样表现出色。尤其在日语、德语、韩语、西班牙语和法语等非英语语言领域表现尤为突出。在权威的多语言评测基准WMT24++中,该模型取得了高达50.1%的优异成绩。
目前,普通用户无需进行任何复杂设置,即可通过Google AI平台直接使用Gemma 3n服务。开发者则可以通过相应的API接口将该模型集成到自己的应用中,享受本地化AI处理带来的性能提升。
2025年谷歌I/O开发者大会专题报道
© 版权声明
文章版权归作者所有,未经允许请勿转载。