論文の概要: Structure of activity in multiregion recurrent neural networks
- arxiv url: http://arxiv.org/abs/2402.12188v3
- Date: Wed, 08 Jan 2025 17:50:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 16:10:19.253298
- Title: Structure of activity in multiregion recurrent neural networks
- Title(参考訳): 多領域リカレントニューラルネットワークの活性構造
- Authors: David G. Clark, Manuel Beiran,
- Abstract要約: 本研究では,複数領域のリカレントニューラルネットワークについて検討し,それぞれランダムおよび構造化された接続を持つニューロンについて検討した。
通信サブスペースの実験的な証拠に触発され、領域間の低ランク接続を利用して、選択的アクティブルーティングを実現する。
我々は、地域が、しばしば緊張状態にある、活動のジェネレータと送信機の両方として機能することを示します。
- 参考スコア(独自算出の注目度): 1.8416014644193066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural circuits comprise multiple interconnected regions, each with complex dynamics. The interplay between local and global activity is thought to underlie computational flexibility, yet the structure of multiregion neural activity and its origins in synaptic connectivity remain poorly understood. We investigate recurrent neural networks with multiple regions, each containing neurons with random and structured connections. Inspired by experimental evidence of communication subspaces, we use low-rank connectivity between regions to enable selective activity routing. These networks exhibit high-dimensional fluctuations within regions and low-dimensional signal transmission between them. Using dynamical mean-field theory, with cross-region currents as order parameters, we show that regions act as both generators and transmitters of activity -- roles that are often in tension. Taming within-region activity can be crucial for effective signal routing. Unlike previous models that suppressed neural activity to control signal flow, our model achieves routing by exciting different high-dimensional activity patterns through connectivity structure and nonlinear dynamics. Our analysis offers insights into multiregion neural data and trained neural networks.
- Abstract(参考訳): 神経回路は複数の相互接続領域から構成され、それぞれが複雑な力学を持つ。
局所的な活動とグローバルな活動の相互作用は計算の柔軟性を損なうと考えられているが、多領域の神経活動の構造とそのシナプス接続の起源は理解されていない。
本稿では,複数領域のリカレントニューラルネットワークについて検討する。
通信サブスペースの実験的な証拠に触発され、領域間の低ランク接続を利用して、選択的アクティブルーティングを実現する。
これらのネットワークは、領域内の高次元変動とそれらの間の低次元信号伝達を示す。
動的平均場理論を用いて、領域間電流を順序パラメータとして、領域が、しばしば緊張状態にあるような、活動のジェネレータと送信機の両方として働くことを示す。
領域内アクティビティのモデリングは、効果的なシグナルルーティングに不可欠である。
信号の流れを制御するために神経活動を抑制する従来のモデルとは異なり、我々のモデルは接続構造や非線形力学を通じて、刺激的な高次元のアクティビティパターンによってルーティングを実現する。
私たちの分析は、マルチリージョンのニューラルネットワークとトレーニングされたニューラルネットワークに関する洞察を提供する。
関連論文リスト
- Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Connectivity structure and dynamics of nonlinear recurrent neural networks [46.62658917638706]
我々は,ニューラルネットワークの高次元,内部的に発生する活動が接続構造をどのように形成するかを解析する理論を開発する。
我々の理論は、ニューラルネットワークアーキテクチャと人工および生物学的システムにおける集合力学を関連付けるためのツールを提供する。
論文 参考訳(メタデータ) (2024-09-03T15:08:37Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - The Evolution of the Interplay Between Input Distributions and Linear
Regions in Networks [20.97553518108504]
ReLUに基づくディープニューラルネットワークにおける線形凸領域の数をカウントする。
特に、任意の1次元入力に対して、それを表現するのに必要となるニューロンの数に対して最小限の閾値が存在することを証明している。
また、トレーニング中のReLUネットワークにおける決定境界の反復的改善プロセスも明らかにした。
論文 参考訳(メタデータ) (2023-10-28T15:04:53Z) - Decomposing spiking neural networks with Graphical Neural Activity
Threads [0.734084539365505]
本稿では,神経活動を複数の非結合な並列スレッドに分解するスパイクニューラルネットワークの解析手法を提案する。
このスパイク活性のグラフは自然に空間と時間に重なる解離連結成分に分解される。
我々は,大きなスパイクデータセットで再起する類似スレッドを見つけるための効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-29T05:10:11Z) - Equivalence of Additive and Multiplicative Coupling in Spiking Neural
Networks [0.0]
スパイキングニューラルネットワークモデルは、生物学的ニューロンの回路の創発的集団力学を特徴付ける。
加法結合を持つスパイクニューラルネットワークモデルは乗法結合を持つモデルと等価であることを示す。
論文 参考訳(メタデータ) (2023-03-31T20:19:11Z) - Dimension of activity in random neural networks [6.752538702870792]
ニューラルネットワークは、多くの連結ユニットの協調活動を通して情報を処理する高次元非線形力学系である。
二点共分散をDMFTを用いて自己整合的に計算する。
我々の公式は、幅広い単単位力学に適用され、非二項結合に一般化される。
論文 参考訳(メタデータ) (2022-07-25T17:38:21Z) - Input correlations impede suppression of chaos and learning in balanced
rate networks [58.720142291102135]
ニューラルネットワークにおける情報符号化と学習は、時間変化による刺激が自発的なネットワーク活動を制御することができるかに依存する。
平衡状態の焼成速度ネットワークでは、リカレントダイナミクスの外部制御は入力の相関に強く依存することを示す。
論文 参考訳(メタデータ) (2022-01-24T19:20:49Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - Rich dynamics caused by known biological brain network features
resulting in stateful networks [0.0]
ニューロン/ネットワークの内部状態は、情報がどのようにネットワーク内で表現されるかを定義する要素となる。
本研究では,ネットワーク状態のダイナミクスを豊かにするニューロンの固有の内在的パラメータが与える影響について検討した。
このような効果は密結合ネットワークよりも疎結合ネットワークにおいて深いことが判明した。
論文 参考訳(メタデータ) (2021-06-03T08:32:43Z) - Learning Interpretable Models for Coupled Networks Under Domain
Constraints [8.308385006727702]
脳ネットワークの構造的エッジと機能的エッジの相互作用に着目して,結合ネットワークの概念を検討する。
相互作用を推定しながらノイズ項にハードネットワークの制約を課す新しい定式化を提案する。
ヒトコネクトームプロジェクトから得られたマルチシェル拡散およびタスク誘発fMRIデータセットの手法を検証する。
論文 参考訳(メタデータ) (2021-04-19T06:23:31Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z) - The distribution of inhibitory neurons in the C. elegans connectome
facilitates self-optimization of coordinated neural activity [78.15296214629433]
線虫Caenorhabditis elegansの神経系は、昆虫のサイズが小さいにもかかわらず著しく複雑である。
一般的な課題は、システムレベルでの神経組織と神経活動の関係をよりよく理解することである。
我々は,各ニューロンの神経伝達物質同定を近似した,C. elegans Connectomeの抽象シミュレーションモデルを実装した。
論文 参考訳(メタデータ) (2020-10-28T23:11:37Z) - Towards Interaction Detection Using Topological Analysis on Neural
Networks [55.74562391439507]
ニューラルネットワークでは、あらゆる相互作用する特徴は共通の隠蔽ユニットとの強い重み付けの接続に従う必要がある。
本稿では, 永続的ホモロジーの理論に基づいて, 相互作用強度を定量化するための新しい尺度を提案する。
PID(Persistence Interaction Detection)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-25T02:15:24Z) - Training spiking neural networks using reinforcement learning [0.0]
本稿では,スパイクニューラルネットワークのトレーニングを容易にするために,生物学的に有望なバックプロパゲーション代替法を提案する。
本研究では,空間的・時間的信用割当問題の解決における強化学習規則の適用可能性を検討することに注力する。
我々は、グリッドワールド、カートポール、マウンテンカーといった従来のRLドメインに適用することで、2つのアプローチを比較し、対比する。
論文 参考訳(メタデータ) (2020-05-12T17:40:36Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。