Long short-term memory and learning-to-learn in networks of spiking neurons


郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布!

ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS 31 (NIPS 2018), (2018): 787-797

Abstract

  脉冲神经元的循环网络(RSNN)是大脑惊人的计算和学习能力的基础。但RSNN模型的计算和学习能力仍然很差,至少与人工神经网络(ANN)相比是这样。我们解决了两个可能的原因。一是大脑中的RSNN不是随机连接的,也不是按照简单的规则设计的,它们也不会像一个白板网络一样开始学习。相反,大脑中的RSNN通过进化、发展和先前的经验针对其任务进行了优化。这些优化过程的细节在很大程度上是未知的。但是它们的功能贡献可以通过强大的优化方法来近似,例如随时间的反向传播(BPTT)。

  大脑中的RSNN与模型之间的第二个主要不匹配是后者仅显示了大脑中神经元和突触动态的一小部分。我们在我们的RSNN模型中包含神经元,这些神经元再现了生物神经元的一个显著动态过程,该过程发生在与行为相关的秒级时间尺度上:神经元适应。我们将这些网络称为LSNN,因为它们具有长短期记忆。如果通过深度学习(BPTT与优化网络架构的重新布线算法相结合)对RSNN进行训练和配置,则包含自适应神经元将大大提高RSNN的计算和学习能力。事实上,这些RSNN的计算性能首次接近LSTM网络。此外,具有自适应神经元的RSNN可以学会学习(L2L)方案中的先前学习中获取抽象知识,并转移该知识以便从很少的示例中学习新的但相关的任务。我们在监督学习和强化学习中证明了这一点。

1 Introduction

2 LSNN model

3 Applying BPTT with DEEP R to RSNNs and LSNNs

4 Computational performance of LSNNs

5 LSNNs learn-to-learn from a teacher

6 LSNNs learn-to-learn from reward

7 Discussion

Supplementary information for: Long short-term memory and learning-to-learn in networks of spiking neurons

2 LSNN model

3 Applying BPTT with DEEP R to RSNNs and LSNNs

4 Computational performance of LSNNs

5 LSNNs learn-to-learn from a teacher

6 LSNNs learn-to-learn from reward

相关