9月2日,科技媒体9to5Mac报道,苹果公司日前在Hugging Face平台上推出了FastVLM视觉语言模型的浏览器试用版。
FastVLM以其高效的视频字幕生成能力著称。对于配备Apple Silicon芯片的Mac用户而言,这一技术将带来全新的体验。
作为苹果最新推出的视觉语言模型,FastVLM的核心优势在于其卓越的速度和效率。该模型基于苹果自研的开源机器学习框架MLX进行优化,并专为Apple Silicon芯片设计。与同类产品相比,FastVLM不仅在体积上缩减至三分之一,更实现了视频字幕生成速度的显著提升——高达85倍。
此次发布的FastVLM-0.5B轻量版本支持浏览器运行。实测显示,在16GB M2 Pro MacBook Pro设备上,模型加载时间仅需几分钟,但一旦启动便能准确识别画面中的人物、环境、表情及物体等细节。

更值得关注的是,FastVLM支持本地运行模式,所有数据处理均在设备端完成,无需上传至云端。这一特性极大提升了用户的数据安全性。

FastVLM的本地运行能力和低延迟特点,使其在可穿戴设备和辅助技术领域展现出广泛的应用前景。例如,在虚拟摄像头场景中,该模型能够实时详细描述多类型内容,未来有望成为智能眼镜等设备的核心技术,为用户提供更智能化、便捷化的交互体验。
相关阅读:
-
《苹果发布FastVLM视觉语言模型,为新型智能眼镜等穿戴设备铺路》
参考来源:
-
Hugging Face平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。