NCE编辑优选:脉冲神经网络建模组件功能理解
文章介绍
Huifeng Yin(尹汇锋), Hanle Zheng(郑晗乐), Jiayi Mao(毛佳一), Siyuan Ding(丁思源), Xing Liu(刘星), Mingkun Xu(徐明坤), Yifan Hu(胡一凡), Jing Pei(裴京) and Lei Deng(邓磊)
通讯作者:
- 邓磊,清华大学精密仪器系、清华大学类脑计算研究中心
研究背景:
SNN是受大脑神经回路启发的一种神经网络模型,能在保持生物合理性的同时通过脉冲事件驱动的方式实现高效计算。然而,虽然SNN具有丰富的时空动力学和低功耗优势,其中各建模组件的功能角色尚不明确,这给SNN建模理解和优化带来了挑战。该文试图理解并揭示基于LIF(Leaky Integrate-and-Fire)经典神经元模型的SNN关键建模组件的功能角色,如膜电位泄漏、重置和循环突触连接等,加深对SNN工作原理和行为特性的理解,为SNN在不同任务中建模优化提供理论指导。
研究内容:
该文系统性地研究了LIF-SNN模型关键建模组件的功能角色。通过调整膜电位泄漏(有/无及泄漏程度)、重置(有/无)和循环突触连接(有/无)等几种关键建模组件的构成,设计和评估经典LIF-SNN模型的几种变体模型,通过控制变量法分析变体模型在不同数据集和组件配置下的性能,评估指标包括识别准确率、时间尺度泛化性和对抗攻击鲁棒性等,加深对SNN工作原理和行为特性的理解。具体而言,神经元膜电位泄漏在平衡长时记忆和短时响应、影响鲁棒性方面起着关键作用,全泄漏难以保留长时信息而零泄漏会降低高频响应能力,一定程度泄漏可提高模型泛化能力和鲁棒性;膜电位重置机制会一定程度中断时域记忆,但可降低脉冲发放率节约计算成本;循环突触连接能够增加复杂动力学建模提高准确率,但会牺牲模型泛化性和鲁棒性。上述发现为SNN在不同应用需求下的性能优化提供了有价值的理论指导,能够发展更通用、更有效、更鲁棒的SNN模型。
作者介绍
邓磊 副教授
清华大学
- 邓磊,清华大学精密仪器系,清华大学类脑计算研究中心,副教授、博士生导师,入选国家高层次青年人才计划。从事类脑计算领域研究超过10年,在Nature、Nature Communications、PIEEE、JSSC、ICML、ICLR等期刊和会议发表论文近百篇,包含3篇封面论文、1篇ESI 0.1%热点论文和2篇ESI 1%高被引论文,担任Frontiers in Neuroscience期刊副主编、中国人工智能学会脑机融合与生物机器智能专委会委员和多个国际会议分论坛主席和程序委员会委员。个人曾入选全球前2%顶尖科学家榜单、北脑青年学者、吴文俊人工智能优秀青年奖和《麻省理工科技评论》中国籍35岁以下科技创新35人等,代表性成果曾获中国科学十大进展、世界互联网领先科技成果、中国计算机学会技术发明一等奖和日内瓦国际发明展金奖等奖项。
期刊介绍
- 2023年影响因子:5.8 Citescore: 5.9
- Neuromorphic Computing and Engineering(NCE)是一本涵盖多个学科领域、采用开放获取(OA)形式出版的期刊。NCE期刊将神经形态系统的硬件和计算方面结合在一起,读者群覆盖工程、材料科学、物理、化学、生物学、神经科学和计算机科学等领域,跨越学术界和产业界的各个群体。在NCE期刊上发表的研究需针对神经形态系统和人工神经网络领域做出及时而重要的贡献。