論文の概要: Self-Organization of Attractor Landscapes in High-Capacity Kernel Logistic Regression Hopfield Networks
- arxiv url: http://arxiv.org/abs/2511.13053v2
- Date: Tue, 18 Nov 2025 04:26:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.876582
- Title: Self-Organization of Attractor Landscapes in High-Capacity Kernel Logistic Regression Hopfield Networks
- Title(参考訳): 高容量カーネルロジスティック回帰ホップフィールドネットワークにおけるトラクター景観の自己組織化
- Authors: Akira Tamamori,
- Abstract要約: カーネルベースの学習は、Hopfieldネットワークのストレージ容量を劇的に増加させる。
我々は,アトラクタの局所的安定性を定量化するために,ネットワークのエネルギー景観の幾何学的解析を行う。
我々の中心的な発見は、ネットワークがアトラクタ安定性を最大化する"最適化の尾根"の出現である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel-based learning methods can dramatically increase the storage capacity of Hopfield networks, yet the dynamical mechanism behind this enhancement remains poorly understood. We address this gap by conducting a geometric analysis of the network's energy landscape. We introduce a novel metric, "Pinnacle Sharpness," to quantify the local stability of attractors. By systematically varying the kernel width and storage load, we uncover a rich phase diagram of attractor shapes. Our central finding is the emergence of a "ridge of optimization," where the network maximizes attractor stability under challenging high-load and global-kernel conditions. Through a theoretical decomposition of the landscape gradient into a direct "driving" force and an indirect "feedback" force, we reveal the origin of this phenomenon. The optimization ridge corresponds to a regime of strong anti-correlation between the two forces, where the direct force, amplified by the high storage load, dominates the opposing collective feedback force. This demonstrates a sophisticated self-organization mechanism: the network adaptively harnesses inter-pattern interactions as a cooperative feedback control system to sculpt a robust energy landscape. Our findings provide a new physical picture for the stability of high-capacity associative memories and offer principles for their design.
- Abstract(参考訳): カーネルベースの学習手法はホップフィールドネットワークの記憶能力を劇的に向上させるが、この拡張の背後にある動的メカニズムはいまだに理解されていない。
ネットワークのエネルギー環境を幾何学的に解析することで,このギャップに対処する。
本稿では,アトラクタの局所的安定性を定量化するための新しい計量"Pinnacle Sharpness"を提案する。
カーネルの幅とストレージの負荷を体系的に変化させることで、アトラクタ形状の豊富な位相図が明らかになる。
我々の中心的な発見は「最適化の尾根」の出現であり、ネットワークは高負荷およびグローバルカーネル条件の挑戦の下でアトラクタ安定性を最大化する。
ランドスケープ勾配を直接的な「運転」力と間接的な「フィードバック」力に理論的に分解することで、この現象の起源を明らかにする。
最適化リッジは、高い記憶負荷で増幅された直接力が反対の集団フィードバック力を支配する2つの力の強い反相関状態に対応する。
ネットワークはパターン間の相互作用を協調的なフィードバック制御システムとして適応的に活用し、堅牢なエネルギー景観を彫刻する。
以上の結果から,高容量連想記憶の安定性の新たな物理像が得られ,その設計の原則が示唆された。
関連論文リスト
- State Rank Dynamics in Linear Attention LLMs [37.607046806053035]
州の階級階層化は、線形アテンションヘッド間で異なるスペクトル分岐によって特徴づけられる。
低ランクの頭部はモデル推論に欠かせないが、高ランクの頭部は顕著な冗長性を示す。
我々は,KVキャッシュのオーバーヘッドを38.9%削減し,モデル精度を大きく維持するゼロショット戦略であるJoint Rank-Norm Pruningを提案する。
論文 参考訳(メタデータ) (2026-02-02T15:00:42Z) - Random-Matrix-Induced Simplicity Bias in Over-parameterized Variational Quantum Circuits [72.0643009153473]
本稿では,観測可能な期待値とパラメータ勾配の両方がシステムサイズに指数関数的に集中するHaar型普遍性クラスに,表現的変分アンサーゼが入ることを示す。
その結果、そのような回路によって誘導される仮説クラスは、近点関数の狭い族に高い確率で崩壊する。
テンソル-ネットワークベースおよびテンソル-ハイパーネットワークパラメータ化を含むテンソル構造VQCは、ハール型普遍性クラスの外にある。
論文 参考訳(メタデータ) (2026-01-05T08:04:33Z) - Spectral Concentration at the Edge of Stability: Information Geometry of Kernel Associative Memory [0.0]
統計的多様体上のネットワーク力学を解析し、リッジが「安定性のエッジ」に対応することを明らかにする。
これは最小記述長原理を通じて学習力学とキャパシティを統一し、自己組織的臨界性の幾何学理論を提供する。
論文 参考訳(メタデータ) (2025-11-28T11:14:15Z) - Learning by Steering the Neural Dynamics: A Statistical Mechanics Perspective [0.0]
我々は、ニューラルネットワークが完全に局所的な分散学習をサポートする方法について研究する。
そこで本研究では,任意のバイナリ再帰ネットワークを用いた教師あり学習のための生物学的に妥当なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-10-13T22:28:34Z) - Higher-order Network phenomena of cascading failures in resilient cities [1.6858464664111417]
本稿では,大規模で実世界のマルチモーダルトランスポートネットワークによる実証的な証拠とともに,高次ネットワーク理論に直面する枠組みを提案する。
ネットワーク統合は静的ロバスト性指標を増強するが、破滅性カスケードの構造経路を同時に生成する。
ネットワークの静的な青写真から得られたメトリクスが、従来の低次の中央性と新しい高次の構造解析の両方を介し、基本的には非連結であり、したがってシステムの動的機能レジリエンスの予測因子が貧弱であることを示す強力な証拠を提供する。
論文 参考訳(メタデータ) (2025-09-17T08:22:12Z) - A Tensor Network Framework for Lindbladian Spectra and Steady States [0.0]
我々は、定常状態だけでなく、大規模で駆動された量子多体系に対する前例のない精度の低い励起状態も計算するための枠組みを導入する。
この手法は、非マルコフ環境にも適する一般開放量子多体系のスペクトル解析の能力を解き放つ。
論文 参考訳(メタデータ) (2025-09-09T13:12:16Z) - Power Grid Control with Graph-Based Distributed Reinforcement Learning [60.49805771047161]
この作業は、リアルタイムでスケーラブルなグリッド管理のためのグラフベースの分散強化学習フレームワークを前進させる。
グラフニューラルネットワーク(GNN)を使用して、ネットワークのトポロジ情報を単一の低レベルエージェントの観測内にエンコードする。
Grid2Opシミュレーション環境での実験は、このアプローチの有効性を示している。
論文 参考訳(メタデータ) (2025-09-02T22:17:25Z) - PowerGrow: Feasible Co-Growth of Structures and Dynamics for Power Grid Synthesis [75.14189839277928]
本稿では,運用効率を維持しながら計算オーバーヘッドを大幅に削減する,共同生成フレームワークPowerGrowを提案する。
ベンチマーク設定による実験では、PowerGrowはフィデリティと多様性において、事前の拡散モデルよりも優れていた。
これは、運用上有効で現実的な電力グリッドシナリオを生成する能力を示している。
論文 参考訳(メタデータ) (2025-08-29T01:47:27Z) - Network Sparsity Unlocks the Scaling Potential of Deep Reinforcement Learning [57.3885832382455]
静的ネットワークの疎結合を単独で導入することで,最先端アーキテクチャの高密度化を超えて,さらなるスケーリング可能性を実現することができることを示す。
解析の結果,高密度DRLネットワークをネーティブにスケールアップするのとは対照的に,疎ネットワークは高いパラメータ効率とネットワーク表現性を両立させることがわかった。
論文 参考訳(メタデータ) (2025-06-20T17:54:24Z) - Transformers Learn Faster with Semantic Focus [57.97235825738412]
学習性と一般化の観点からスパース変圧器について検討する。
入力依存のスパースアテンションモデルは、標準アテンションモデルよりも早く収束し、より一般化しているように見える。
論文 参考訳(メタデータ) (2025-06-17T01:19:28Z) - Dissipation-Induced Threshold on Integrability Footprints [1.0159681653887238]
発散強度が増大するにつれて可積分性のシグネチャが減少することを示す。
これらのクラスターが消滅する限界散逸閾値を推定する。
この結果は、オープン量子系における可積分性のフットプリントをノイズが徐々に消し去る様子を定量的に表現する。
論文 参考訳(メタデータ) (2025-04-14T14:16:37Z) - A Dynamical Systems-Inspired Pruning Strategy for Addressing Oversmoothing in Graph Neural Networks [18.185834696177654]
グラフニューラルネットワーク(GNN)のオーバースムース化は、ネットワークの深さが増加するにつれて大きな課題となる。
オーバースムーシングの根本原因を特定し,textbftextitDYNAMO-GATを提案する。
我々の理論的分析は、DYNAMO-GATが過密状態への収束を妨げていることを示している。
論文 参考訳(メタデータ) (2024-12-10T07:07:06Z) - Dynamical Mean-Field Theory of Self-Attention Neural Networks [0.0]
トランスフォーマーベースのモデルは、様々な領域で例外的な性能を示している。
動作方法や期待されるダイナミクスについてはほとんど分かっていない。
非平衡状態における非対称ホップフィールドネットワークの研究に手法を用いる。
論文 参考訳(メタデータ) (2024-06-11T13:29:34Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - On the Optimization and Generalization of Multi-head Attention [28.33164313549433]
マルチアテンションヘッドを用いた場合の潜在的な最適化と一般化の利点について検討する。
単層多層自己アテンションモデルの勾配差学習における収束と一般化の保証を導出する。
論文 参考訳(メタデータ) (2023-10-19T12:18:24Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Spreading of a local excitation in a Quantum Hierarchical Model [62.997667081978825]
常磁性相における量子ダイソン階層モデルのダイナミクスについて検討する。
地磁気場状態の局所励起による初期状態を考慮する。
局所化機構が発見され、励起は任意の時間で初期位置に近づいたままである。
論文 参考訳(メタデータ) (2022-07-14T10:05:20Z) - Convex Analysis of the Mean Field Langevin Dynamics [49.66486092259375]
平均場ランゲヴィン力学の収束速度解析について述べる。
ダイナミックスに付随する$p_q$により、凸最適化において古典的な結果と平行な収束理論を開発できる。
論文 参考訳(メタデータ) (2022-01-25T17:13:56Z) - Enhancement of quantum correlations and geometric phase for a driven
bipartite quantum system in a structured environment [77.34726150561087]
構造環境下で進化する初期最大絡み合い状態における運転の役割について検討した。
この知識は、散逸動力学の下で量子特性を最もよく保持する物理装置の探索に役立つ。
論文 参考訳(メタデータ) (2021-03-18T21:11:37Z) - On dissipative symplectic integration with applications to
gradient-based optimization [77.34726150561087]
本稿では,離散化を体系的に実現する幾何学的枠組みを提案する。
我々は、シンプレクティックな非保守的、特に散逸的なハミルトン系への一般化が、制御された誤差まで収束率を維持することができることを示す。
論文 参考訳(メタデータ) (2020-04-15T00:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。