首页> 外文期刊>Adaptive Behavior >Structure and Dynamics of Random Recurrent Neural Networks
【24h】

Structure and Dynamics of Random Recurrent Neural Networks

机译:随机递归神经网络的结构和动力学

获取原文
获取原文并翻译 | 示例
           

摘要

Contrary to Hopfield-like networks, random recurrent neural networks (RRNN), where the couplings are random, exhibit complex dynamics (limit cycles, chaos). It is possible to store information in these networks through Hebbian learning. Eventually, learning "destroys" the dynamics and leads to a fixed point attractor. We investigate here the structural changes occurring in the network through learning. We show that a simple Hebbian learning rule organizes synaptic weight redistribution on the network from an initial homogeneous and random distribution to a heterogeneous one, where strong synaptic weights preferentially assemble in triangles. Hence learning organizes the network of the large synaptic weights as a "small-world" one.
机译:与类似Hopfield的网络相反,耦合为随机的随机递归神经网络(RRNN)具有复杂的动力学(极限环,混沌)。通过Hebbian学习,可以在这些网络中存储信息。最终,学习会“破坏”动力学并导致定点吸引子。我们在这里通过学习调查网络中发生的结构变化。我们显示,一个简单的Hebbian学习规则将网络上的突触权重重新分布从最初的均质和随机分布,转变为异构的,其中强突触权重优先以三角形聚集。因此,学习将大型突触权重的网络组织为一个“小世界”。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号