本文作者:访客

科学家实现光速AI计算架构突破,性能瓶颈有望消除

访客 2025-11-25 14:52:22 8 抢沙发
科学家取得了重大突破,成功研发出光速AI计算架构,这一创新技术有望消除性能瓶颈,为人工智能的快速发展提供强大的支持,该架构能够实现极速计算,大幅提升AI系统的处理能力和效率,为未来的人工智能应用带来革命性的变革。
11月25日消息,科技媒体livescience昨日(11月24日)发布博文,报道称来自芬兰阿尔托大学的研究团队成功演示名为“并行光学矩阵-矩阵乘法器”(POMMM)的新一代光学计算基础架构,旨在解决人工智能(AI)模型训练和执行中的核心瓶颈。援引博文介绍,现代AI模型,尤其是大语言模型(LLM),其性能受限于处理“张量”(Tensor)数据的速度。Tensor是AI模型中用于组织数据的加权结构,处理速度的上限直接决定了模型规模的上限。POMMM架构的出现,为突破这一限制提供了全新思路。
传统光计算虽然在小规模下比电子计算更快、更节能,但存在一个致命缺陷:难以并行处理。与可以大规模串联以指数级提升算力的图形处理器(GPU)不同,大多数光学系统只能线性运行。因此,尽管光计算潜力巨大,但开发者普遍倾向于选择GPU的并行处理优势。像OpenAI、Google等公司开发的顶级AI模型,正是依赖数千块GPU并行运行才得以实现。POMMM技术能够利用单次相干光的传播过程,完成整个矩阵与矩阵的乘法运算。其核心原理在于,通过空间光调制器将数字张量编码为光的相位和振幅,光束穿过实现傅里叶变换的透镜组后,运算结果以干涉图像的形式被高速探测器捕捉。整个算术过程在光的“飞行”中瞬间完成,无需电子环路或内存读取,实现了物理层面的“自然同步计算”。
研究团队基于现成的光学元件搭建了原型机,在标准光学平台上耗时六个月完成组装。测试结果显示,对于最大50x50的矩阵,该原型的平均绝对误差(MAE)低于0.15,归一化均方根误差(RMSE)则保持在0.1以下。这一精度已能满足许多边缘推理应用的需求。尽管当前原型机的能效仅为2.62GOP/J(每焦耳执行26.2亿次操作),远低于顶尖GPU,但其潜力巨大。团队强调,这项技术的优势在于其扩展性与速度,运算延迟可达纳秒级,远胜于电子计算的微秒级。为了加速技术验证和社区发展,研究团队已在GitHub上开放了所有代码和数据。这种透明化的做法增强了外界对该技术突破的信心,并吸引了全球光子学实验室和AI加速器开发者的关注。研究人员指出,探测器的动态范围和校准漂移是目前需要攻克的难题,但未来的技术路线图非常清晰。通过将空间光调制器和探测器阵列等关键部件集成到低损耗的氮化硅光子芯片上,能效有望实现百倍提升。根据团队预测,集成了专用光子芯片的原型机有望在三年内问世,预计能将能效提升至300GOP/J,远超电子GPU目前约30GOP/J的能效瓶颈。不过,考虑到封装、温控和激光器集成等工程挑战,距离实现大规模量产可能还需要五年以上的时间。附上参考地址
文章版权及转载声明

作者:访客本文地址:https://shucuo.cn/post/4736.html发布于 2025-11-25 14:52:22
文章转载或复制请以超链接形式并注明出处数错网

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

验证码

评论列表 (暂无评论,8人围观)参与讨论

还没有评论,来说两句吧...