重大突破!科学家发明光速 AI 计算架构,有望消除性能瓶颈

AI资讯3个月前发布 ainav
53 0

11月25日消息,科技媒体《livescience》昨日(11月24日)发布博文,介绍了来自芬兰阿尔托大学的研究团队的一项重要突破——他们成功演示了一种名为”并行光学矩阵-矩阵乘法器”(POMMM)的新一代光学计算架构。这一创新技术旨在解决人工智能(AI)模型训练和执行过程中面临的重大瓶颈问题。

文章指出,现代AI模型,特别是大型语言模型(Large Language Models, LLMs),其性能严重受限于处理”张量”(Tensor)数据的速度。张量是AI模型中用于组织数据的加权结构,其处理速度直接决定了模型规模的上限。

传统光计算虽然在小规模运算上比电子计算更快、更节能,但存在一个关键缺陷:难以实现并行处理。与图形处理器(GPU)可以通过大规模串联来指数级提升算力不同,大多数光学系统只能线性运行。因此,尽管光计算技术潜力巨大,但在实际应用中开发者更倾向于选择GPU的并行处理优势。像OpenAI、Google等公司开发的顶级AI模型,正是依赖数千块GPU的并行运算才得以实现。

重大突破!科学家发明光速 AI 计算架构,有望消除性能瓶颈

POMMM技术的核心优势在于,它能够利用单次相干光的传播过程完成整个矩阵与矩阵的乘法运算。其工作原理是:通过空间光调制器将数字张量编码为光的相位和振幅,随后光束穿过实现傅里叶变换的透镜组,最终以干涉图像的形式被高速探测器捕捉。这一计算过程完全在光的”飞行”中瞬间完成,无需依赖电子环路或内存读取,实现了物理意义上的”自然同步计算”。

研究团队使用现有的光学元件搭建了POMMM原型机,并在标准光学平台上耗时六个月完成了组装和测试。实验数据显示,对于最大尺寸为50×50的矩阵,该原型系统的平均绝对误差(MAE)低于0.15,归一化均方根误差(RMSE)则控制在0.1以下。

重大突破!科学家发明光速 AI 计算架构,有望消除性能瓶颈

虽然当前原型机的能效表现(2.62 GOP/J,即每焦耳执行26.2亿次操作)与顶尖GPU相比仍有差距,但其在运算延迟方面展现出显著优势——仅需纳秒级时间,远优于电子计算的微秒级水平。研究团队认为,这种技术路线的优势在于其扩展性和潜在速度提升空间。

为了推动技术验证和社区发展,研究团队已在GitHub平台上开源了所有代码和数据资料。这种开放式的做法不仅增强了外界对该项技术突破的信心,也吸引了全球光子学实验室和AI加速器开发者的广泛关注。

研究人员坦言,目前仍面临两个主要技术难题:探测器的动态范围限制和校准漂移问题。不过,他们已经明确了未来的技术发展路线图——通过将关键组件(如空间光调制器和探测器阵列)集成到低损耗的氮化硅光子芯片上,预计能效可实现百倍提升。

根据团队预测,首款集成了专用光子芯片的POMMM原型机有望在三年内问世,届时其能效将提升至300 GOP/J,远超当前电子GPU约30 GOP/J的能效水平。然而,考虑到封装、温控和激光器集成等工程挑战,距离实现大规模量产可能还需要五年以上的时间。

附上参考地址

  • Direct tensor processing with coherent light

  • AI at the speed of light just became a possibility

© 版权声明

相关文章