Press "Enter" to skip to content

中科院自动化所研究登上Science子刊:自组织反向传播提升网络学习效率

在图像识别任务中,引入 SBP 能让识别准确度稍稍提高,计算成本还能降低 57%。

 

机器之心发布,机器之心编辑部。

 

在人工智能领域,目前人工神经网络中被广泛使用的反向传播算法(Backpropagation,BP)采用全局优化策略,这种端到端的学习方法性能卓越,但学习过程能量消耗大,且缺乏灵活性。 中科院脑智卓越中心徐波、蒲慕明联合研究团队近期借助生物网络中发现的介观尺度自组织反向传播机制(Self-backpropagation,SBP),在更具效率和灵活性的类脑局部学习方法方面取得了重要进展。

 

该研究的论文《Self-backpropagation of synaptic modifications elevates the efficiency of spiking and artificial neural networks》已于 2021 年 10 月 20 日(美东时间)在线发表于《科学》子刊《Science Advances》上。

论文地址: https://www. science.org/doi/10.1126 /sciadv.abh0146

 

借助 SBP 降低计算能耗

 

SBP 的发现最早可以追溯到 1997 年。蒲慕明团队在 Nature 杂志上撰文发现海马体内的神经元可以将长时程抑制(Long-term depression,LTD)可塑性自组织地传播到三个方向,分别是突触前侧向传播(Presynaptic lateral spread)、突触后侧向传播(Postsynaptic lateral spread)、反向传播(Backpropagation)[1],这个发现就是自组织反向传播神经可塑性机制(SBP)。

 

后续研究证实,SBP 现象具有普遍性,不仅覆盖更多的神经区域如视网膜 – 顶盖系统 [2],还覆盖更多的可塑性类型 [3],如长时程增强(Long-term potentiation,LTP)。该机制的发生归结于生物神经元内分子调制信号的天然逆向传递,被认为是可能导致生物神经网络高效反馈学习的关键 [4]。

 

中科院研究团队受到该机制的启发,对 SBP 的反向传播方向(第三个方向)单独构建数学模型(图 1A),重点描述了神经元输出突触的可塑性可以反向传播到输入突触中(图 1B),可塑性的发生可以通过时序依赖突触可塑性(Spike timing-dependent plasticity,STDP),也可以通过人工局部梯度调节。在标准三层脉冲神经网络(Spiking neural network,SNN)的学习过程中,SBP 机制可以自组织地完成前一层网络权重的学习,且可以结合短时突触可塑性(Short-term plasticity,STP)、膜电位平衡(Homeo-static membrane potential)等,形成更强大的 SNN 组合学习方法(图 1C)。

图 1:SBP 在 SNN 中的应用。(A),SBP 可塑性机制。(B),SBP 在 SNN 中的局部反向传播。(C),SBP 和其它可塑性机制在 SNN 中的组合优化。

 

在一类人工神经网络(Artificial neural network,ANN)如受限玻尔兹曼机网络(Restricted Boltzmann machine,RBM)的学习中(图 2A),SBP 机制也可以替换迭代过程中部分 BP 机制,实现交替的协作优化(图 2B-E)。针对 SNN 和 RBM 的不同,团队又分别设置了两种不同的能量函数约束,来保证训练过程中网络参数学习的平稳性。

图 2:SBP 在 RBM 中的应用。(A),SBP 和 BP 在 RBM 中的组合优化。(B),SBP 和 BP 的交替协作流程。(C),RBM 中的标准 Sleep Phase。(D),含有 SBP 的 Wake Phase。(E),含有 BP 的 Wake Phase。

 

此外,研究团队针对性地提出了一种统计训练过程中能量消耗的新方法(图 3)。在图片分类(MNIST)、语音识别(NETtalk)、动态手势识别(DvsGesture)等多类标准数据集上,SBP 机制通过组合其它可塑性机制,实现了更低能耗和更高精度的 SNN 局部学习(图 4)。在 ANN-RBM 的学习中,SBP 机制也可以大量的替换 BP 机制实现全局和局部交叉学习,在降低计算能耗同时却不损失精度(图 5)。如图 5C 所示,使用 SBP 进行训练的计算成本比仅使用 BP 进行训练时降低了约 57.1%。

图 3:训练能量消耗的计算方法。(A),平均迭代次数。(B),每次迭代中的算法复杂度。

图 4:在 MNIST、NETtalk、DvsGesture 三个数据集上的性能对比。(A,C,E),SBP 分别取得了基于梯度和基于可塑性方法的 SNN 最优性能。(B,D,F),SBP 分别取得了基于梯度和基于可塑性方法的 SNN 最低能耗。

图 5:SBP 有助于 RBM 提升精度和降低能耗。(A-C),在 MNIST 数据集中,SBP 可以少量降低 RBM 的训练误差(A),可以同时平衡精度和能耗得到最优的 Wake Phase 次数(B),且可以显着降低训练能耗(C)。(D-I),在 NETtalk 和 DvsGesture 数据集中,SBP 得到了和在 MNIST 中类似的结论。

 

研究人员认为,SBP 是一类介观尺度的特殊生物可塑性机制,该机制同时在 SNN 和 ANN 中获得了广泛的组合优化优势,对进一步深入探索类脑局部计算具有很大的启示性。生物智能计算的本质,很可能就是灵活融合多类微观、介观等可塑性机制的自组织局部学习,结合遗传演化赋予的远程投射网络结构,实现高效的全局优化学习效果。该工作可以进一步引导生物和人工网络的深度融合,最终实现能效比高、可解释性强、灵活度高的新一代人工智能模型。

 

中国科学院自动化研究所类脑智能研究中心张铁林副研究员为该研究第一作者,徐波研究员为通讯作者,程翔(博士生)、贾顺程(博士生)、蒲慕明研究员和曾毅研究员为共同作者。相关研究工作得到了国家自然科学基金委、先导 B 等项目的资助。

 

参考文献:[1] Fitzsimonds, R. M., Song, H. J. & Poo, M. M. Propagation of activity-dependent synaptic depression in simple neural networks. Nature 388, 439-448, (1997).

 

[2] Du, J. L. & Poo, M. M. Rapid BDNF-induced retrograde synaptic modification in a developing retinotectal system. Nature 429, 878-883, (2004).

 

[3] Du, J. L., Wei, H. P., Wang, Z. R., Wong, S. T. & Poo, M. M. Long-range retrograde spread of LTP and LTD from optic tectum to retina. Proceedings of the National Academy of Sciences of the United States of America 106, 18890-18896, (2009).

 

[4] Bi, G. & Poo, M. Synaptic modification by correlated activity: Hebb’s postulate revisited. Annual Review of Neuroscience, 24, 139-166, (2001).

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注