論文の概要: State Space Models Naturally Produce Traveling Waves, Time Cells, and Scale to Abstract Cognitive Functions
- arxiv url: http://arxiv.org/abs/2507.13638v1
- Date: Fri, 18 Jul 2025 03:53:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.181924
- Title: State Space Models Naturally Produce Traveling Waves, Time Cells, and Scale to Abstract Cognitive Functions
- Title(参考訳): 状態空間モデルが自然に生成する音波, 時間細胞, 抽象的認知機能へのスケール
- Authors: Sen Lu, Xiaoyu Zhang, Mingtao Hu, Eric Yeu-Jer Lee, Soohyeon Kim, Wei D. Lu,
- Abstract要約: ディープラーニングアーキテクチャの新しいクラスであるステートスペースモデル(SSM)に基づくフレームワークを提案する。
我々は、このモデルが生物学的な「時間細胞」を著しく模倣する神経表現を自然に発達させることを実証した。
本研究は,SSMを単一ニューロンのダイナミクスと認知現象を結びつける魅力的な枠組みとして位置づけた。
- 参考スコア(独自算出の注目度): 7.097247619177705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A grand challenge in modern neuroscience is to bridge the gap between the detailed mapping of microscale neural circuits and a mechanistic understanding of cognitive functions. While extensive knowledge exists about neuronal connectivity and biophysics, a significant gap remains in how these elements combine to produce flexible, learned behaviors. Here, we propose that a framework based on State-Space Models (SSMs), an emerging class of deep learning architectures, can bridge this gap. We argue that the differential equations governing elements in an SSM are conceptually consistent with the biophysical dynamics of neurons, while the combined dynamics in the model lead to emergent behaviors observed in experimental neuroscience. We test this framework by training an S5 model--a specific SSM variant employing a diagonal state transition matrix--on temporal discrimination tasks with reinforcement learning (RL). We demonstrate that the model spontaneously develops neural representations that strikingly mimic biological 'time cells'. We reveal that these cells emerge from a simple generative principle: learned rotational dynamics of hidden state vectors in the complex plane. This single mechanism unifies the emergence of time cells, ramping activity, and oscillations/traveling waves observed in numerous experiments. Furthermore, we show that this rotational dynamics generalizes beyond interval discriminative tasks to abstract event-counting tasks that were considered foundational for performing complex cognitive tasks. Our findings position SSMs as a compelling framework that connects single-neuron dynamics to cognitive phenomena, offering a unifying and computationally tractable theoretical ground for temporal learning in the brain.
- Abstract(参考訳): 現代の神経科学における大きな課題は、マイクロスケールの神経回路の詳細なマッピングと認知機能の機械的理解のギャップを埋めることである。
神経の接続性や生体物理学に関する広範な知識は存在するが、これらの要素がどのように組み合わさって柔軟で学習された行動を生み出すかについては、大きなギャップが残っている。
本稿では、新しいディープラーニングアーキテクチャのクラスであるステートスペースモデル(SSM)に基づくフレームワークが、このギャップを埋めることができることを提案する。
我々は、SSMの要素を管理する微分方程式が、実験神経科学において観察される創発的行動を引き起こす一方で、ニューロンの生体物理学的ダイナミクスと概念的に一致していると主張している。
我々は,S5モデル-対角状態遷移行列を用いた特定のSSM変種--を強化学習(RL)を用いた時間的識別タスクで訓練することによって,この枠組みを検証した。
このモデルは、生物学的な「時間細胞」を著しく模倣する神経表現を自然に発達させることを実証する。
これらの細胞は単純な生成原理から生まれ、複素平面の隠れ状態ベクトルの回転力学を学習する。
この単一のメカニズムは、多くの実験で観測された時間細胞、傾斜活動、発振/進行波の出現を統一する。
さらに, この回転力学は, 複雑な認知タスクを遂行するための基礎となると考えられるイベントカウントタスクを抽象化するために, 区間識別タスクを超えて一般化することを示した。
我々の研究は、SSMを単一ニューロンのダイナミクスと認知現象を結びつける魅力的なフレームワークとして位置づけ、脳における時間的学習のための統一的で計算的に計算可能な理論基盤を提供する。
関連論文リスト
- Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - NOBLE -- Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models [68.89389652724378]
NOBLEは、解釈可能なニューロンの特徴を連続周波数変調した埋め込みから電流注入によって誘導されるソマティック電圧応答へのマッピングを学ぶ神経オペレーターフレームワークである。
内在的な実験変数を考慮したニューラルダイナミクスの分布を予測する。
NOBLEは、実際の実験データに基づいて検証された最初のスケールアップされたディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-06-05T01:01:18Z) - Neural Manifolds and Cognitive Consistency: A New Approach to Memory Consolidation in Artificial Systems [0.0]
本稿では, ニューラル人口動態, 海馬鋭波リップル(SpWR)生成, ハイダー理論に触発された認知的一貫性の制約を統一する新しい数学的枠組みを提案する。
我々のモデルは低次元多様体表現を利用して構造化された神経ドリフトを捕捉し、コヒーレントシナプス相互作用を強制するためにバランスエネルギー関数を組み込む。
この研究は、神経科学と人工知能を橋渡しするスケーラブルなニューロモルフィックアーキテクチャの道を開くもので、将来のインテリジェントシステムに対してより堅牢で適応的な学習メカニズムを提供する。
論文 参考訳(メタデータ) (2025-02-25T18:28:25Z) - Neuronal and structural differentiation in the emergence of abstract rules in hierarchically modulated spiking neural networks [20.58066918526133]
ルール抽象化の根底にある内部的な機構は、いまだ解明されていない。
この研究は、階層的に変調された繰り返しスパイクニューラルネットワーク(HM-RSNN)を導入し、本質的な神経特性をチューニングできる。
我々は,HM-RSNNを用いた4つの認知課題のモデリングを行い,ネットワークレベルとニューロンレベルの両方で規則抽象化の相違が観察された。
論文 参考訳(メタデータ) (2025-01-24T14:45:03Z) - Deep reinforcement learning with time-scale invariant memory [1.338174941551702]
我々は、スケール不変メモリの計算神経科学モデルを深部強化学習(RL)エージェントに統合する。
このようなエージェントは、広範囲の時間スケールで頑健に学習できることを示す。
この結果は、神経科学と認知科学の計算原理をディープニューラルネットワークに組み込むことで、複雑な時間力学への適応性を高めることを示唆している。
論文 参考訳(メタデータ) (2024-12-19T07:20:03Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
神経科学とAIの両方では、ニューロン間の'バインディング'が、ネットワークの深い層においてより抽象的な概念を表現するために表現を圧縮する、競争的な学習の形式につながることが知られている。
完全に接続された畳み込みや注意機構などの任意の接続設計とともに人工的再考を導入する。
このアイデアは、教師なしオブジェクト発見、敵対的ロバスト性、不確実性、定量化、推論など、幅広いタスクにわたるパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Synergistic pathways of modulation enable robust task packing within neural dynamics [0.0]
ニューラルダイナミクスの文脈変調の2つの形態の区別を探索するために、リカレント・ネットワーク・モデルを用いる。
我々はこれらのメカニズムの区別を、それらが引き起こす神経力学のレベルで示す。
これらの特徴は、これらのメカニズムがどのように振る舞うかの相補性と相乗性を示している。
論文 参考訳(メタデータ) (2024-08-02T15:12:01Z) - CREIMBO: Cross-Regional Ensemble Interactions in Multi-view Brain Observations [3.3713037259290255]
現在の分析手法は、しばしばそのようなデータの豊かさを活かさない。
CREIMBOは、グラフ駆動辞書学習を通じて、セッションごとのニューラルアンサンブルの隠れた構成を特定する。
合成データ中の真の成分を回収するCREIMBOの能力を実証する。
論文 参考訳(メタデータ) (2024-05-27T17:48:32Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - Astrocytes as a mechanism for meta-plasticity and contextually-guided
network function [2.66269503676104]
アストロサイトは、ユビキタスでエニグマティックな非神経細胞である。
アストロサイトは脳機能や神経計算においてより直接的で活発な役割を果たす。
論文 参考訳(メタデータ) (2023-11-06T20:31:01Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。