論文の概要: Constructive Lyapunov Functions via Topology-Preserving Neural Networks
- arxiv url: http://arxiv.org/abs/2510.24730v1
- Date: Fri, 10 Oct 2025 17:46:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 05:35:45.986083
- Title: Constructive Lyapunov Functions via Topology-Preserving Neural Networks
- Title(参考訳): トポロジー保存ニューラルネットワークによる構築型リアプノフ関数
- Authors: Jaehong Oh,
- Abstract要約: ONNは収束率、エッジ効率、計算複雑性の順序-最適性能を達成する。
3Mノードのセマンティックネットワークにおける実証的な検証は、ベースライン法よりも99.75%改善されている。
ORTSFをトランスに組み込むことで、14.7%のパープレキシティ低減と2.3の高速化を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We prove that ONN achieves order-optimal performance on convergence rate ($\mu \propto \lambda_2$), edge efficiency ($E = N$ for minimal connectivity $k = 2$), and computational complexity ($O(N d^2)$). Empirical validation on 3M-node semantic networks demonstrates 99.75\% improvement over baseline methods, confirming exponential convergence ($\mu = 3.2 \times 10^{-4}$) and topology preservation. ORTSF integration into transformers achieves 14.7\% perplexity reduction and 2.3 faster convergence on WikiText-103. We establish deep connections to optimal control (Hamilton-Jacobi-Bellman), information geometry (Fisher-efficient natural gradient), topological data analysis (persistent homology computation in $O(KN)$), discrete geometry (Ricci flow), and category theory (adjoint functors). This work transforms Massera's abstract existence theorem into a concrete, scalable algorithm with provable guarantees, opening pathways for constructive stability analysis in neural networks, robotics, and distributed systems.
- Abstract(参考訳): 我々は、ONNが収束率(\mu \propto \lambda_2$)、エッジ効率(最小接続$k = 2$)、計算複雑性(O(N d^2)$)のオーダー最適性能を達成することを証明した。
3Mノードセマンティックネットワークにおける実証的な検証は、指数収束(\mu = 3.2 \times 10^{-4}$)とトポロジー保存(英語版)を確かめ、ベースライン法よりも99.75 %改善していることを示している。
ORTSF のトランスフォーマーへの統合は 14.7 % のパープレキシティ削減と WikiText-103 への2.3 の高速化を実現している。
我々は最適制御(Hamilton-Jacobi-Bellman)、情報幾何学(Fisher- efficient natural gradient)、トポロジカルデータ解析($O(KN)$における永続ホモロジー計算)、離散幾何学(リッチフロー)、および圏論(随伴関手)との深い接続を確立する。
この研究は、Masseraの抽象的存在定理を、証明可能な保証、ニューラルネットワーク、ロボティクス、分散システムにおける建設的安定性解析のための開口経路を備えた、具体的でスケーラブルなアルゴリズムに変換する。
関連論文リスト
- Trace Regularity PINNs: Enforcing $\mathrm{H}^{\frac{1}{2}}(\partial Ω)$ for Boundary Data [0.48342038441006796]
拡張物理インフォームドニューラルネットワーク(PINN)を提案する。
TRPINN(Trace Regularity Physics-Informed Neural Network)は、ソボレフ・スロボデックイノルム$H1/2(partial Omega)$における境界損失を強制する。
正確な$H1/2(partial Omega)$ノルムを組み込むことで、近似が$H1(Omega)$センスの真の解に収束することを示す。
論文 参考訳(メタデータ) (2025-10-19T13:08:16Z) - LLMs are Bayesian, in Expectation, not in Realization [0.0]
大きな言語モデルはパラメータを更新せずに新しいタスクに適応する。
最近の経験的発見は根本的な矛盾を示しており、変圧器はマルティンゲールの性質を体系的に侵害している。
この違反は、臨界応用における不確実性定量化の基礎となる理論的基礎に挑戦する。
論文 参考訳(メタデータ) (2025-07-15T22:20:11Z) - Tensor Decomposition Networks for Fast Machine Learning Interatomic Potential Computations [48.46721044282335]
テンソル分解ネットワーク(TDN)は、計算処理の劇的な高速化と競合する性能を実現する。
1億5500万のDFT計算スナップショットを含む分子緩和データセットPubChemQCRのTDNを評価した。
その結果,TDNは計算処理の劇的な高速化と競合する性能を示した。
論文 参考訳(メタデータ) (2025-07-01T18:46:27Z) - Distributed Learning over Arbitrary Topology: Linear Speed-Up with Polynomial Transient Time [3.1789549088190414]
本研究では, ピアツーピア通信によるローカルコスト関数の和を協調的に共有する分散学習問題について検討する。
本稿では、一般的な通信グラフから抽出した2本の木を用いて、モデルパラメータと位相パラメータの両方を分散する新しいEmph Tree PushPull-(STPP)を提案する。
論文 参考訳(メタデータ) (2025-03-20T13:11:44Z) - Constructive Universal Approximation and Finite Sample Memorization by Narrow Deep ReLU Networks [0.0]
我々は$N$の異なる点を持つデータセットが$mathbbRd$と$M$の出力クラスを正確に分類できることを示した。
また、任意の有界領域に対して$Lp(Omega; mathbbRm)$の普遍近似定理も証明する。
我々の結果は、深層ニューラルネットワークにおける制御性、表現性、およびトレーニングのダイナミクスを接続する統一的で解釈可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-09-10T14:31:21Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。