論文の概要: Global stability of a Hebbian/anti-Hebbian network for principal subspace learning
- arxiv url: http://arxiv.org/abs/2601.13170v1
- Date: Mon, 19 Jan 2026 15:53:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.95966
- Title: Global stability of a Hebbian/anti-Hebbian network for principal subspace learning
- Title(参考訳): 主部分空間学習のためのヘビアン/反ヘビアンネットワークの大域的安定性
- Authors: David Lipshutz, Robert J. Lipshutz,
- Abstract要約: シナプスレベルでの修正が、ネットワークレベルでのそのような計算にどのように影響するかは、未解決の問題である。
シナプス力学の連続極限の大域的安定性は、ダイナミクスが2つの相で進化することを示している。
- 参考スコア(独自算出の注目度): 8.27902169448946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biological neural networks self-organize according to local synaptic modifications to produce stable computations. How modifications at the synaptic level give rise to such computations at the network level remains an open question. Pehlevan et al. [Neur. Comp. 27 (2015), 1461--1495] proposed a model of a self-organizing neural network with Hebbian and anti-Hebbian synaptic updates that implements an algorithm for principal subspace analysis; however, global stability of the nonlinear synaptic dynamics has not been established. Here, for the case that the feedforward and recurrent weights evolve at the same timescale, we prove global stability of the continuum limit of the synaptic dynamics and show that the dynamics evolve in two phases. In the first phase, the synaptic weights converge to an invariant manifold where the `neural filters' are orthonormal. In the second phase, the synaptic dynamics follow the gradient flow of a non-convex potential function whose minima correspond to neural filters that span the principal subspace of the input data.
- Abstract(参考訳): 生物学的ニューラルネットワークは、局所的なシナプス修正に従って自己組織化し、安定した計算を生成する。
シナプスレベルでの修正によって、ネットワークレベルでのそのような計算がもたらされるかは、未解決の問題である。
Pehlevan et al [Neur. Comp. 27 (2015), 1461-1495] は、Hebbian と anti-Hebbian synaptic update による自己組織化ニューラルネットワークのモデルを提案し、主部分空間解析のアルゴリズムを実装したが、非線形シナプス力学のグローバルな安定性は確立されていない。
ここでは、フィードフォワードとリカレントウェイトが同時に時間スケールで進化する場合には、シナプス力学の連続極限のグローバルな安定性を証明し、2つの相でダイナミクスが進化することを示す。
第1フェーズでは、シナプス重みは「ニューラルフィルタ」が正則である不変多様体に収束する。
第2フェーズでは、シナプス力学は入力データの主部分空間にまたがるニューラルフィルタに対応する非凸ポテンシャル関数の勾配の流れに従う。
関連論文リスト
- Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Similarity Matching Networks: Hebbian Learning and Convergence Over Multiple Time Scales [5.093257685701887]
本研究では,主部分空間投影のための固有性マッチングネットワークの検討と解析を行う。
マルチレベル最適化フレームワークを利用することで、オフライン環境でのダイナミクスの収束を証明できる。
論文 参考訳(メタデータ) (2025-06-06T14:46:22Z) - New Evidence of the Two-Phase Learning Dynamics of Neural Networks [59.55028392232715]
時間ウィンドウ全体にわたってネットワーク状態を比較するインターバルワイズ・パースペクティブを導入する。
摂動に対するネットワークの応答はカオスから安定への移行を示す。
また、この遷移点の後に、モデルの関数軌道は狭い円錐形の部分集合に制限される。
論文 参考訳(メタデータ) (2025-05-20T04:03:52Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Theory of coupled neuronal-synaptic dynamics [3.626013617212667]
神経回路では、シナプス強度が神経活動に影響を及ぼす。
神経ユニットとシナプス結合が動的変数と相互作用するリカレント・ネットワークモデルについて検討する。
我々は,ヘビアン可塑性を加えることでカオスネットワークの活動が遅くなり,カオスを引き起こすことを示した。
論文 参考訳(メタデータ) (2023-02-17T16:42:59Z) - Mean-Field Analysis of Two-Layer Neural Networks: Global Optimality with
Linear Convergence Rates [7.094295642076582]
平均場体制はNTK(lazy training)体制の理論的に魅力的な代替手段である。
平均場状態における連続ノイズ降下により訓練された2層ニューラルネットワークに対する線形収束結果を確立した。
論文 参考訳(メタデータ) (2022-05-19T21:05:40Z) - Stability Analysis of Fractional Order Memristor Synapse-coupled
Hopfield Neural Network with Ring Structure [0.0]
まず,2つのニューロンに2次メムリスタ共役ホップフィールドニューラルネットワークを提案する。
我々は、n個のサブネットワークニューロンからなるリング構造を持つニューラルネットワークにモデルを拡張し、ネットワーク内の同期を増大させる。
n-ニューロンの場合、安定性はサブネットワークの構造と数に依存することが明らかになった。
論文 参考訳(メタデータ) (2021-09-29T12:33:23Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。