論文の概要: Continuous-Time Homeostatic Dynamics for Reentrant Inference Models
- arxiv url: http://arxiv.org/abs/2512.05158v1
- Date: Thu, 04 Dec 2025 07:33:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.764964
- Title: Continuous-Time Homeostatic Dynamics for Reentrant Inference Models
- Title(参考訳): 連続時間ホメオスタティックダイナミクスによる相対的推論モデル
- Authors: Byung Gyu Chae,
- Abstract要約: 我々は、連続時間ニューラル-ODEシステムとして、Fast-Weights Homeostatic Reentry Networkを定式化する。
動力学は、エネルギー汎函数によって支配される有界な誘引子を認め、環のような多様体を生じる。
連続時間リカレントニューラルネットワークや液体ニューラルネットワークとは異なり、FHRNは、固定された再発やニューロン局所的な時間適応よりも、集団レベルのゲイン変調によって安定性を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We formulate the Fast-Weights Homeostatic Reentry Network (FHRN) as a continuous-time neural-ODE system, revealing its role as a norm-regulated reentrant dynamical process. Starting from the discrete reentry rule $x_t = x_t^{(\mathrm{ex})} + γ\, W_r\, g(\|y_{t-1}\|)\, y_{t-1}$, we derive the coupled system $\dot{y}=-y+f(W_ry;\,x,\,A)+g_{\mathrm{h}}(y)$ showing that the network couples fast associative memory with global radial homeostasis. The dynamics admit bounded attractors governed by an energy functional, yielding a ring-like manifold. A Jacobian spectral analysis identifies a \emph{reflective regime} in which reentry induces stable oscillatory trajectories rather than divergence or collapse. Unlike continuous-time recurrent neural networks or liquid neural networks, FHRN achieves stability through population-level gain modulation rather than fixed recurrence or neuron-local time adaptation. These results establish the reentry network as a distinct class of self-referential neural dynamics supporting recursive yet bounded computation.
- Abstract(参考訳): 我々は、FHRN(Fast-Weights Homeostatic Reentry Network)を連続時間ニューラル-ODEシステムとして定式化し、ノルム規制された再帰的動的プロセスとしての役割を明らかにした。
x_t = x_t^{(\mathrm{ex})} + γ\, W_r\, g(\|y_{t-1}\|)\, y_{t-1}$ から、結合系 $\dot{y}=-y+f(W_ry;\,x,\,A)+g_{\mathrm{h}}(y)$ を導出する。
動力学は、エネルギー汎函数によって支配される有界な誘引子を認め、環のような多様体を生じる。
ヤコビアンスペクトル分析は、再突入が発散や崩壊よりも安定した振動軌道を誘導する 'emph{reflective regime} を特定する。
連続時間リカレントニューラルネットワークや液体ニューラルネットワークとは異なり、FHRNは、固定された再発やニューロン局所的な時間適応よりも、集団レベルのゲイン変調によって安定性を達成する。
これらの結果は再帰的かつ有界な計算をサポートする自己参照型ニューラルダイナミクスのクラスとして再突入ネットワークを確立する。
関連論文リスト
- Recursive Dynamics in Fast-Weights Homeostatic Reentry Networks: Toward Reflective Intelligence [0.0]
本研究では、高速な連想記憶、ホメオスタティック正規化、学習された再帰フィードバックを統合し、ニューラルネットワークの自己参照計算を近似するニューラルネットワーク機構であるFH-RL(Fast-Weights Homeostatic Reentry Layer)を紹介する。
Information Reentry Ratio(IRR)、Eigen-Spectrum Recursion Index(ESRI)、Representational Drift Periodicity(RDP)の3つの新しい指標を用いて、Reentry gain $gamma$のコントロール実験を行い、創発的内部ダイナミクスを評価する。
これらの知見は、フィードバック間のバランスから、反射的、思考的な内部処理が生じるという定量的証拠を提供する。
論文 参考訳(メタデータ) (2025-11-10T07:36:45Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Generative System Dynamics in Recurrent Neural Networks [56.958984970518564]
リカレントニューラルネットワーク(RNN)の連続時間ダイナミクスについて検討する。
線形および非線形構成の両方において安定な極限サイクルを実現するためには,スキュー対称性の重み行列が基本であることを示す。
数値シミュレーションは、非線形活性化関数が極限周期を維持するだけでなく、システム統合プロセスの数値安定性を高めることを示す。
論文 参考訳(メタデータ) (2025-04-16T10:39:43Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Unconditional stability of a recurrent neural circuit implementing divisive normalization [0.0]
任意次元ORGaNICs回路における非条件局所安定性の顕著な特性を証明した。
ORGaNICsは、勾配のクリッピング/スケーリングなしで、時間経過によるバックプロパゲーションによって訓練できることを示す。
論文 参考訳(メタデータ) (2024-09-27T17:46:05Z) - Losing momentum in continuous-time stochastic optimisation [42.617042045455506]
運動量に基づく最適化アルゴリズムは 特に広まりました
本研究では、運動量を伴う勾配降下の連続時間モデルを解析する。
また、画像分類問題において畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2022-09-08T10:46:05Z) - The Limiting Dynamics of SGD: Modified Loss, Phase Space Oscillations,
and Anomalous Diffusion [29.489737359897312]
勾配降下法(SGD)を訓練した深部ニューラルネットワークの限界ダイナミクスについて検討する。
これらのダイナミクスを駆動する重要な要素は、本来のトレーニング損失ではなく、位相空間の振動を引き起こす速度と確率電流を暗黙的に規則化する修正損失の組み合わせであることを示す。
論文 参考訳(メタデータ) (2021-07-19T20:18:57Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。