論文の概要: Self-Organization of Attractor Landscapes in High-Capacity Kernel Logistic Regression Hopfield Networks
- arxiv url: http://arxiv.org/abs/2511.13053v2
- Date: Tue, 18 Nov 2025 04:26:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.876582
- Title: Self-Organization of Attractor Landscapes in High-Capacity Kernel Logistic Regression Hopfield Networks
- Title(参考訳): 高容量カーネルロジスティック回帰ホップフィールドネットワークにおけるトラクター景観の自己組織化
- Authors: Akira Tamamori,
- Abstract要約: カーネルベースの学習は、Hopfieldネットワークのストレージ容量を劇的に増加させる。
我々は,アトラクタの局所的安定性を定量化するために,ネットワークのエネルギー景観の幾何学的解析を行う。
我々の中心的な発見は、ネットワークがアトラクタ安定性を最大化する"最適化の尾根"の出現である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel-based learning methods can dramatically increase the storage capacity of Hopfield networks, yet the dynamical mechanism behind this enhancement remains poorly understood. We address this gap by conducting a geometric analysis of the network's energy landscape. We introduce a novel metric, "Pinnacle Sharpness," to quantify the local stability of attractors. By systematically varying the kernel width and storage load, we uncover a rich phase diagram of attractor shapes. Our central finding is the emergence of a "ridge of optimization," where the network maximizes attractor stability under challenging high-load and global-kernel conditions. Through a theoretical decomposition of the landscape gradient into a direct "driving" force and an indirect "feedback" force, we reveal the origin of this phenomenon. The optimization ridge corresponds to a regime of strong anti-correlation between the two forces, where the direct force, amplified by the high storage load, dominates the opposing collective feedback force. This demonstrates a sophisticated self-organization mechanism: the network adaptively harnesses inter-pattern interactions as a cooperative feedback control system to sculpt a robust energy landscape. Our findings provide a new physical picture for the stability of high-capacity associative memories and offer principles for their design.
- Abstract(参考訳): カーネルベースの学習手法はホップフィールドネットワークの記憶能力を劇的に向上させるが、この拡張の背後にある動的メカニズムはいまだに理解されていない。
ネットワークのエネルギー環境を幾何学的に解析することで,このギャップに対処する。
本稿では,アトラクタの局所的安定性を定量化するための新しい計量"Pinnacle Sharpness"を提案する。
カーネルの幅とストレージの負荷を体系的に変化させることで、アトラクタ形状の豊富な位相図が明らかになる。
我々の中心的な発見は「最適化の尾根」の出現であり、ネットワークは高負荷およびグローバルカーネル条件の挑戦の下でアトラクタ安定性を最大化する。
ランドスケープ勾配を直接的な「運転」力と間接的な「フィードバック」力に理論的に分解することで、この現象の起源を明らかにする。
最適化リッジは、高い記憶負荷で増幅された直接力が反対の集団フィードバック力を支配する2つの力の強い反相関状態に対応する。
ネットワークはパターン間の相互作用を協調的なフィードバック制御システムとして適応的に活用し、堅牢なエネルギー景観を彫刻する。
以上の結果から,高容量連想記憶の安定性の新たな物理像が得られ,その設計の原則が示唆された。
関連論文リスト
- Learning by Steering the Neural Dynamics: A Statistical Mechanics Perspective [0.0]
我々は、ニューラルネットワークが完全に局所的な分散学習をサポートする方法について研究する。
そこで本研究では,任意のバイナリ再帰ネットワークを用いた教師あり学習のための生物学的に妥当なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-10-13T22:28:34Z) - Higher-order Network phenomena of cascading failures in resilient cities [1.6858464664111417]
本稿では,大規模で実世界のマルチモーダルトランスポートネットワークによる実証的な証拠とともに,高次ネットワーク理論に直面する枠組みを提案する。
ネットワーク統合は静的ロバスト性指標を増強するが、破滅性カスケードの構造経路を同時に生成する。
ネットワークの静的な青写真から得られたメトリクスが、従来の低次の中央性と新しい高次の構造解析の両方を介し、基本的には非連結であり、したがってシステムの動的機能レジリエンスの予測因子が貧弱であることを示す強力な証拠を提供する。
論文 参考訳(メタデータ) (2025-09-17T08:22:12Z) - Power Grid Control with Graph-Based Distributed Reinforcement Learning [60.49805771047161]
この作業は、リアルタイムでスケーラブルなグリッド管理のためのグラフベースの分散強化学習フレームワークを前進させる。
グラフニューラルネットワーク(GNN)を使用して、ネットワークのトポロジ情報を単一の低レベルエージェントの観測内にエンコードする。
Grid2Opシミュレーション環境での実験は、このアプローチの有効性を示している。
論文 参考訳(メタデータ) (2025-09-02T22:17:25Z) - PowerGrow: Feasible Co-Growth of Structures and Dynamics for Power Grid Synthesis [75.14189839277928]
本稿では,運用効率を維持しながら計算オーバーヘッドを大幅に削減する,共同生成フレームワークPowerGrowを提案する。
ベンチマーク設定による実験では、PowerGrowはフィデリティと多様性において、事前の拡散モデルよりも優れていた。
これは、運用上有効で現実的な電力グリッドシナリオを生成する能力を示している。
論文 参考訳(メタデータ) (2025-08-29T01:47:27Z) - Network Sparsity Unlocks the Scaling Potential of Deep Reinforcement Learning [57.3885832382455]
静的ネットワークの疎結合を単独で導入することで,最先端アーキテクチャの高密度化を超えて,さらなるスケーリング可能性を実現することができることを示す。
解析の結果,高密度DRLネットワークをネーティブにスケールアップするのとは対照的に,疎ネットワークは高いパラメータ効率とネットワーク表現性を両立させることがわかった。
論文 参考訳(メタデータ) (2025-06-20T17:54:24Z) - A Dynamical Systems-Inspired Pruning Strategy for Addressing Oversmoothing in Graph Neural Networks [18.185834696177654]
グラフニューラルネットワーク(GNN)のオーバースムース化は、ネットワークの深さが増加するにつれて大きな課題となる。
オーバースムーシングの根本原因を特定し,textbftextitDYNAMO-GATを提案する。
我々の理論的分析は、DYNAMO-GATが過密状態への収束を妨げていることを示している。
論文 参考訳(メタデータ) (2024-12-10T07:07:06Z) - Dynamical Mean-Field Theory of Self-Attention Neural Networks [0.0]
トランスフォーマーベースのモデルは、様々な領域で例外的な性能を示している。
動作方法や期待されるダイナミクスについてはほとんど分かっていない。
非平衡状態における非対称ホップフィールドネットワークの研究に手法を用いる。
論文 参考訳(メタデータ) (2024-06-11T13:29:34Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。