首页> 外文学位 >Capacity analysis of attractor neural networks with binary neurons and discrete synapses.
【24h】

Capacity analysis of attractor neural networks with binary neurons and discrete synapses.

机译:具有二元神经元和离散突触的吸引神经网络的容量分析。

获取原文
获取原文并翻译 | 示例

摘要

We define the memory capacity of networks of binary neurons with finite-state synapses in terms of retrieval probabilities of learned patterns under standard asynchronous dynamics with a predetermined threshold. The threshold is set to control the proportion of non-selective neurons that fire. An optimal inhibition level is chosen to stabilize network behavior. For any local learning rule we provide a computationally efficient and highly accurate approximation to the retrieval probability of a pattern as a function of its age. The method is applied to the sequential models (Fusi and Abbott, 2007) and meta-plasticity models (Fusi et al, 2005; Leibold and Kempter, 2008). We show that as the number of synaptic states increases, the capacity, as defined here, either plateaus or decreases. In the few cases where multi-state models exceed the capacity of binary synapse models the improvement is small.
机译:我们根据具有预定阈值的标准异步动力学下的学习模式的检索概率,来定义具有有限状态突触的二进制神经元网络的存储容量。设置阈值以控制激发的非选择性神经元的比例。选择最佳抑制级别以稳定网络行为。对于任何局部学习规则,我们都提供了一种计算有效且高度精确的近似值,该概率是模式的年龄的函数。该方法适用于顺序模型(Fusi和Abbott,2007)和亚塑性模型(Fusi等,2005; Leibold和Kempter,2008)。我们表明,随着突触状态数量的增加,容量(如此处定义)稳定或下降。在少数情况下,多状态模型超过了二进制突触模型的容量,改进很小。

著录项

  • 作者

    Huang, Yibi.;

  • 作者单位

    The University of Chicago.;

  • 授予单位 The University of Chicago.;
  • 学科 Statistics.
  • 学位 Ph.D.
  • 年度 2010
  • 页码 109 p.
  • 总页数 109
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类 宗教;
  • 关键词

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号