論文の概要: Neuro-Vesicles: Neuromodulation Should Be a Dynamical System, Not a Tensor Decoration
- arxiv url: http://arxiv.org/abs/2512.06966v1
- Date: Sun, 07 Dec 2025 19:19:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.609892
- Title: Neuro-Vesicles: Neuromodulation Should Be a Dynamical System, Not a Tensor Decoration
- Title(参考訳): 神経小胞:神経調節は動的システムであるべきで、腱の変形ではない
- Authors: Zilin Li, Weiwei Xu, Vicki Kane,
- Abstract要約: 従来のニューラルネットワークに欠ける計算層を拡張したフレームワークであるNeuro-Vesiclesを紹介する。
ベシクルは移動性で離散的なベシクルであり、テンソルの内部ではなくネットワークに沿って生活する。
私たちは、排出、マイグレーション、ドッキング、解放、崩壊、学習への結合など、フレームワークの完全な数学的仕様を提供します。
- 参考スコア(独自算出の注目度): 16.06187991858285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Neuro-Vesicles, a framework that augments conventional neural networks with a missing computational layer: a dynamical population of mobile, discrete vesicles that live alongside the network rather than inside its tensors. Each vesicle is a self contained object v = (c, kappa, l, tau, s) carrying a vector payload, type label, location on the graph G = (V, E), remaining lifetime, and optional internal state. Vesicles are emitted in response to activity, errors, or meta signals; migrate along learned transition kernels; probabilistically dock at nodes; locally modify activations, parameters, learning rules, or external memory through content dependent release operators; and finally decay or are absorbed. This event based interaction layer reshapes neuromodulation. Instead of applying the same conditioning tensors on every forward pass, modulation emerges from the stochastic evolution of a vesicle population that can accumulate, disperse, trigger cascades, carve transient pathways, and write structured traces into topological memory. Dense, short lived vesicles approximate familiar tensor mechanisms such as FiLM, hypernetworks, or attention. Sparse, long lived vesicles resemble a small set of mobile agents that intervene only at rare but decisive moments. We give a complete mathematical specification of the framework, including emission, migration, docking, release, decay, and their coupling to learning; a continuous density relaxation that yields differentiable reaction diffusion dynamics on the graph; and a reinforcement learning view where vesicle control is treated as a policy optimized for downstream performance. We also outline how the same formalism extends to spiking networks and neuromorphic hardware such as the Darwin3 chip, enabling programmable neuromodulation on large scale brain inspired computers.
- Abstract(参考訳): Neuro-Vesicles(ニューロ・ヴェシクルズ)は、従来のニューラルネットワークに欠ける計算層、つまり、テンソルの内部ではなく、ネットワークと一緒に生活する、移動体の動的人口を増大させるフレームワークである。
各ベシクルは、ベクトルペイロード、タイプラベル、グラフ G = (V, E) 上の位置、残余寿命、および任意の内部状態を持つ自己包含対象 v = (c, kappa, l, tau, s) である。
ベシクルは、アクティビティ、エラー、メタ信号に応答して放出され、学習された遷移カーネルに沿って移動し、ノードに確率的にドッキングし、コンテンツ依存のリリースオペレータを通して、アクティベーション、パラメータ、学習ルール、または外部メモリをローカルに変更し、最終的に崩壊するか、吸収される。
この事象に基づく相互作用層は神経調節を活性化させる。
すべての前方通過に同じ条件テンソルを適用する代わりに、変調はベシクル集団の確率的進化から生じ、蓄積、分散、カスケードのトリガー、過渡経路の彫り、構造化されたトレースをトポロジカルメモリに書き込むことができる。
複雑な、短寿命のベシクルは、FiLM、ハイパーネット、アテンションなどのよく知られたテンソル機構に近似している。
細長い生きた小胞は、まれだが決定的な瞬間にのみ介入する小さな移動剤のセットに似ている。
このフレームワークの完全な数学的仕様として, 排出, マイグレーション, ドッキング, 解放, 崩壊, 学習への結合, グラフ上の微分可能な反応拡散ダイナミクスを生じる連続的な密度緩和, 下流性能に最適化されたポリシーとしてベシクル制御が扱われる強化学習の観点を挙げる。
我々はまた、同じ形式がスパイクネットワークやDarwin3チップのようなニューロモーフィックハードウェアにどのように拡張され、大規模な脳にインスパイアされたコンピュータ上でプログラム可能なニューロモディフィケーションを可能にするかを概説した。
関連論文リスト
- Egocentric Visual Navigation through Hippocampal Sequences [0.0]
海馬の配列は内因性リカレント回路から発生し, 容易に入力できなくても活動が伝播することを示す。
我々は神経生物学にインスパイアされた最小のシーケンスジェネレータを実装し、エゴセントリックな視覚ナビゲーションのためのアクター批判学習者と組み合わせる。
論文 参考訳(メタデータ) (2025-10-11T01:38:23Z) - Diffusion-Guided Renormalization of Neural Systems via Tensor Networks [0.0]
平衡から遠く離れたところで、神経系は複数のスケールで自己組織化する。
神経科学と人工知能における大規模自己組織化の展開には、計算の枠組みが必要である。
サブサンプリングされた神経活動からコミュニティ構造を発見するためのスケーラブルなグラフ推論アルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-10-07T18:26:10Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Astrocytes mediate analogous memory in a multi-layer neuron-astrocytic
network [52.77024349608834]
情報の一部が数秒間堅牢な活動パターンとして維持され、他の刺激が来なければ完全に消滅することを示す。
この種の短期記憶は、操作情報を数秒保存し、次のパターンとの重複を避けるために完全に忘れてしまう。
任意のパターンをロードし、一定の間隔で保存し、適切な手掛かりパターンを入力に適用した場合に検索する方法について示す。
論文 参考訳(メタデータ) (2021-08-31T16:13:15Z) - Continuous Learning and Adaptation with Membrane Potential and
Activation Threshold Homeostasis [91.3755431537592]
本稿では,MPATH(Membrane Potential and Activation Threshold Homeostasis)ニューロンモデルを提案する。
このモデルにより、ニューロンは入力が提示されたときに自動的に活性を調節することで動的平衡の形式を維持することができる。
実験は、モデルがその入力から適応し、継続的に学習する能力を示す。
論文 参考訳(メタデータ) (2021-04-22T04:01:32Z) - Theory of gating in recurrent neural networks [5.672132510411465]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、機械学習(ML)や神経科学で広く使われている強力な動的モデルである。
ここでは、ゲーティングが集合力学の2つの健全な特徴を柔軟に制御できることを示す。
ゲート制御の時間スケールは、ネットワークがフレキシブルインテグレータとして機能する、新しい、極端に安定な状態につながる。
論文 参考訳(メタデータ) (2020-07-29T13:20:58Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。