武汉光电国家研究中心董建绩周海龙团队突破光学神经网络芯片扩展瓶颈
发布时间:2025.09.19

来源:武汉光电国家研究中心 编辑:范千 浏览次数:

新闻网讯 近日,武汉光电国家研究中心董建绩、周海龙等人在光学神经网络芯片扩展性方面取得重要突破。他们提出了一种名为“部分相干光学深度神经网络”新架构,成功解决了片上光神经网络的深度扩展和规模扩展两大瓶颈。该架构采用级联增益的光学非线性激活函数和部分相干光源,实现了迄今为止输入规模最大、层数最多的单片集成光学神经网络。研究成果发表于Light-Science & Applications,题为“Scaling up for end-to-end on-chip photonic neural network inference”。


光学神经网络(ONN)因其高带宽和高能效的优势,被认为是替代传统电子芯片的下一代人工智能(AI)计算候选方案之一。然而,在单芯片上实现大规模的端到端(end-to-end)光学推理仍面临巨大挑战。首先,传统光学非线性激活函数的级联能力弱,能量衰减限制了网络向更深的隐藏层扩展;其次,片上光学矩阵的规模受限于输入端口数目,以及对窄线宽激光器等高成本光源的依赖(图1a)。为突破这些限制,研究团队提出“部分相干光学深度神经网络”架构(图1b),从三个方面进行了创新:


图1:(a)传统ONN的扩展挑战,深度限制源于非线性激活函数缺乏净增益或需要电放大(TIA),输入尺寸则受制于相干计算中对相干探测的需求以及非相干计算中对波长数量的需求,(b)本方案:部分相干深度光学神经网络。


1增益型非线性激活函数:通过设计一种基于光-电-光(O-E-O)转换的片上非线性激活函数,实现了正值净增益,确保了信号在多层网络间的有效传递和处理,从而能够扩展神经网络的深度。


2部分相干光源:传统方案中,相干计算依赖复杂相干探测;而非相干计算依赖大量窄线宽波长的扩展,成本高。本方案引入部分相干光源,无需相干探测,显著降低了系统对窄线宽激光器的依赖,为大规模并行计算和系统扩展提供了新路径。


3实数域计算架构:整个网络在实数域中运行,可直接表示正、负权重而无需额外编码。该设计降低了硬件复杂度和能耗,尤其在部分相干光下更具优势,因为传统的相位编码来表示符号值变得极具挑战性。


图2:部分相干光学深度神经网络的整体架构(a)数学框架,(b)基于载流子注入的强度调制器,(c)作为卷积核的光学点积单元,(d)第一全连接层。


基于上述创新,团队设计并制造了一款单片集成的深度神经网络芯片(图2),其尺寸约为17平方毫米。该芯片包含一个64维输入层、两个卷积层、两个全连接层,是目前已报道的输入规模最大、网络深度最深的光学神经网络芯片。利用该芯片成功进行了端到端的图像分类任务。在部分相干光源输入的情况下,芯片对四分类手写数字的识别准确率达到94%,对二分类时尚图片的识别准确率达到96%。此外,芯片的单次推理延迟约为4.1ns,计算能效为121.7 pJ/OP,展现了其在高速、节能计算方面的巨大潜力。


该项研究展示了目前输入规模最大、网络深度最深的单片集成光学神经网络,并且首次验证了利用部分相干光进行实值光学计算的可行性,为构建更易于普及、成本更低且高度可扩展的光学计算系统开辟了新道路。


博士生吴波为该论文的第一作者,董建绩教授和周海龙副教授为该工作的共同通讯作者。


全文链接:https://www.nature.com/articles/s41377-025-02029-z

学校微博
单周单篇点击量排名
Baidu
map