論文の概要: Theory of coupled neuronal-synaptic dynamics
- arxiv url: http://arxiv.org/abs/2302.08985v2
- Date: Wed, 10 Jan 2024 22:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 04:18:23.137381
- Title: Theory of coupled neuronal-synaptic dynamics
- Title(参考訳): 結合神経シナプスダイナミクスの理論
- Authors: David G. Clark, L.F. Abbott
- Abstract要約: 神経回路では、シナプス強度が神経活動に影響を及ぼす。
神経ユニットとシナプス結合が動的変数と相互作用するリカレント・ネットワークモデルについて検討する。
我々は,ヘビアン可塑性を加えることでカオスネットワークの活動が遅くなり,カオスを引き起こすことを示した。
- 参考スコア(独自算出の注目度): 3.626013617212667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In neural circuits, synaptic strengths influence neuronal activity by shaping
network dynamics, and neuronal activity influences synaptic strengths through
activity-dependent plasticity. Motivated by this fact, we study a
recurrent-network model in which neuronal units and synaptic couplings are
interacting dynamic variables, with couplings subject to Hebbian modification
with decay around quenched random strengths. Rather than assigning a specific
role to the plasticity, we use dynamical mean-field theory and other techniques
to systematically characterize the neuronal-synaptic dynamics, revealing a rich
phase diagram. Adding Hebbian plasticity slows activity in chaotic networks and
can induce chaos in otherwise quiescent networks. Anti-Hebbian plasticity
quickens activity and produces an oscillatory component. Analysis of the
Jacobian shows that Hebbian and anti-Hebbian plasticity push locally unstable
modes toward the real and imaginary axes, explaining these behaviors. Both
random-matrix and Lyapunov analysis show that strong Hebbian plasticity
segregates network timescales into two bands with a slow, synapse-dominated
band driving the dynamics, suggesting a flipped view of the network as synapses
connected by neurons. For increasing strength, Hebbian plasticity initially
raises the complexity of the dynamics, measured by the maximum Lyapunov
exponent and attractor dimension, but then decreases these metrics, likely due
to the proliferation of stable fixed points. We compute the marginally stable
spectra of such fixed points as well as their number, showing exponential
growth with network size. In chaotic states with strong Hebbian plasticity, a
stable fixed point of neuronal dynamics is destabilized by synaptic dynamics,
allowing any neuronal state to be stored as a stable fixed point by halting the
plasticity. This phase of freezable chaos offers a new mechanism for working
memory.
- Abstract(参考訳): 神経回路では、シナプス強度は神経活動に影響を与え、神経活動は活動依存の可塑性を通してシナプス強度に影響を与える。
この事実に触発されて、我々は神経ユニットとシナプス結合が動的変数と相互作用するリカレント・ネットワークモデルの研究を行った。
可塑性に特定の役割を割り当てる代わりに、動的平均場理論やその他の手法を用いて神経-シナプス力学を体系的に特徴付け、リッチな位相図を明らかにする。
ヘビアン可塑性を加えることでカオスネットワークの活動が遅くなり、それ以外のネットワークではカオスを引き起こす。
抗ヘビアン可塑性は活性を速め、振動成分を生成する。
ヤコビアンの解析によると、ヘビアンと反ヘビアンの可塑性は局所的に不安定なモードを実軸と虚軸に向け、これらの振る舞いを説明する。
ランダム行列とリアプノフ解析の両方により、強いヘビアン可塑性は2つのバンドにネットワークの時間スケールを分離し、遅くてシナプスに支配されたバンドがダイナミクスを駆動し、ニューロンによって接続されたシナプスとしてネットワークの反転したビューを示唆している。
ヘビアン可塑性は、最初は最大リアプノフ指数と引力次元によって測定される力学の複雑さを増大させるが、安定な固定点の増大により、これらの測定値を減少させる。
このような不動点の周縁安定なスペクトルとその数を計算し、ネットワークサイズで指数関数的な成長を示す。
ヘビアン可塑性の強いカオス状態では、神経力学の安定な固定点がシナプス力学によって不安定化され、任意のニューロン状態が可塑性を停止することで安定な固定点として保存される。
このフリーズ可能なカオスのフェーズは、ワーキングメモリの新しいメカニズムを提供する。
関連論文リスト
- Confidence Regulation Neurons in Language Models [91.90337752432075]
本研究では,大規模言語モデルが次世代の予測において不確実性を表現・規制するメカニズムについて検討する。
エントロピーニューロンは異常に高い重量ノルムを特徴とし、最終層正規化(LayerNorm)スケールに影響を与え、ロジットを効果的にスケールダウンさせる。
ここで初めて説明するトークン周波数ニューロンは、各トークンのログをそのログ周波数に比例して増加または抑制することで、出力分布をユニグラム分布から遠ざかる。
論文 参考訳(メタデータ) (2024-06-24T01:31:03Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Learning with Chemical versus Electrical Synapses -- Does it Make a
Difference? [61.85704286298537]
バイオインスパイアされたニューラルネットワークは、ニューラルネットワークの理解を深め、AIシステムの最先端を改善する可能性がある。
我々は,光リアルな自律走行シミュレータを用いて自律車線維持実験を行い,その性能を種々の条件下で評価する。
論文 参考訳(メタデータ) (2023-11-21T13:07:20Z) - Astrocytes as a mechanism for meta-plasticity and contextually-guided
network function [2.66269503676104]
アストロサイトは、ユビキタスでエニグマティックな非神経細胞である。
アストロサイトは脳機能や神経計算においてより直接的で活発な役割を果たす。
論文 参考訳(メタデータ) (2023-11-06T20:31:01Z) - Equivalence of Additive and Multiplicative Coupling in Spiking Neural
Networks [0.0]
スパイキングニューラルネットワークモデルは、生物学的ニューロンの回路の創発的集団力学を特徴付ける。
加法結合を持つスパイクニューラルネットワークモデルは乗法結合を持つモデルと等価であることを示す。
論文 参考訳(メタデータ) (2023-03-31T20:19:11Z) - A Step Towards Uncovering The Structure of Multistable Neural Networks [1.14219428942199]
本稿では,マルチスタブルリカレントニューラルネットワークの構造について検討する。
活性化関数は非平滑なヘビサイドステップ関数によって単純化される。
マルチスタビリティがネットワークアーキテクチャ内でどのようにコード化されるのかを導出する。
論文 参考訳(メタデータ) (2022-10-06T22:54:17Z) - Probing dynamics of a two-dimensional dipolar spin ensemble using single
qubit sensor [62.997667081978825]
ダイヤモンド結晶表面上の電子スピンの2次元アンサンブルにおける個々のスピンダイナミクスを実験的に検討した。
この不規則に緩やかな緩和速度は、強い力学障害の存在によるものであることを示す。
我々の研究は、強く相互作用する無秩序なスピンアンサンブルにおける量子熱化の微視的研究と制御への道を開いた。
論文 参考訳(メタデータ) (2022-07-21T18:00:17Z) - Latent Equilibrium: A unified learning theory for arbitrarily fast
computation with arbitrarily slow neurons [0.7340017786387767]
遅いコンポーネントのネットワークにおける推論と学習のための新しいフレームワークであるLatent Equilibriumを紹介する。
我々は, ニューロンとシナプスのダイナミクスを, 将来的なエネルギー関数から導出する。
本稿では,大脳皮質微小循環の詳細なモデルに我々の原理を適用する方法について述べる。
論文 参考訳(メタデータ) (2021-10-27T16:15:55Z) - SpikePropamine: Differentiable Plasticity in Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)におけるシナプス可塑性と神経調節シナプス可塑性のダイナミクスを学習するための枠組みを導入する。
異なる可塑性で強化されたSNNは、時間的学習課題の集合を解決するのに十分であることを示す。
これらのネットワークは、高次元のロボット学習タスクで移動を生成できることも示されている。
論文 参考訳(メタデータ) (2021-06-04T19:29:07Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。