論文の概要: MSINO: Curvature-Aware Sobolev Optimization for Manifold Neural Networks
- arxiv url: http://arxiv.org/abs/2602.22937v1
- Date: Thu, 26 Feb 2026 12:27:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.680309
- Title: MSINO: Curvature-Aware Sobolev Optimization for Manifold Neural Networks
- Title(参考訳): MSINO: マニフォールドニューラルネットワークのための曲率を考慮したソボレフ最適化
- Authors: Suresan Pareth,
- Abstract要約: 本稿では,リーマン多様体上で定義されたニューラルネットワークの曲率を考慮した学習フレームワークであるMSINOを紹介する。
我々は、多様体ソボレフ滑らか度定数を持つ Descent Lemma を生成する幾何依存定数を導出する。
MSINOは、曲率と輸送されたジャコビアンを明示的に追跡するトレーニングタイム保証を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Manifold Sobolev Informed Neural Optimization (MSINO), a curvature aware training framework for neural networks defined on Riemannian manifolds. The method replaces standard Euclidean derivative supervision with a covariant Sobolev loss that aligns gradients using parallel transport and improves stability via a Laplace Beltrami smoothness regularization term. Building on classical results in Riemannian optimization and Sobolev theory on manifolds, we derive geometry dependent constants that yield (i) a Descent Lemma with a manifold Sobolev smoothness constant, (ii) a Sobolev Polyak Lojasiewicz inequality giving linear convergence guarantees for Riemannian gradient descent and stochastic gradient descent under explicit step size bounds, and (iii) a two step Newton Sobolev method with local quadratic contraction in curvature controlled neighborhoods. Unlike prior Sobolev training in Euclidean space, MSINO provides training time guarantees that explicitly track curvature and transported Jacobians. Applications include surface imaging, physics informed learning settings, and robotics on Lie groups such as SO(3) and SE(3). The framework unifies value and gradient based learning with curvature aware convergence guarantees for neural training on manifolds.
- Abstract(参考訳): 本稿では,リーマン多様体上で定義されたニューラルネットワークの曲率認識学習フレームワークであるManifold Sobolev Informed Neural Optimization (MSINO)を紹介する。
この方法は、標準ユークリッド微分監督を平行輸送を用いて勾配を整列する共変ソボレフ損失に置き換え、ラプラスベルトラミ滑らか度正規化項による安定性を向上させる。
リーマン最適化の古典的な結果と多様体上のソボレフ理論に基づいて、得られる幾何依存定数を導出する。
i) 多様体ソボレフの滑らか性定数を持つDescent Lemma
(ii) リーマン勾配の線形収束保証を与えるソボレフ・ポリアック・ロジャシエヴィチ不等式、および明示的なステップサイズ境界の下での確率勾配勾配
三 曲率制御地区における局所二次収縮を伴う二段階ニュートンソボレフ法
ユークリッド空間での以前のソボレフの訓練とは異なり、MSINOは曲率と輸送されたジャコビアンを明示的に追跡する訓練時間保証を提供している。
応用例としては、表面イメージング、物理情報学習の設定、SO(3) や SE(3) のようなリー群上のロボティクスなどがある。
このフレームワークは、多様体上でのニューラルトレーニングにおいて、曲率を考慮した収束を保証することで、値と勾配に基づく学習を統一する。
関連論文リスト
- Manifold constrained steepest descent [0.0]
多様体上の最適化のための単一ループフレームワークであるemphManifold Constrained Steepest Descent (MCSD)を提案する。
また、Stiefel多様体上のMCSDのスペクトル特殊化であるemphSPELを導入する。
論文 参考訳(メタデータ) (2026-01-29T10:08:37Z) - Neural Optimal Transport Meets Multivariate Conformal Prediction [58.43397908730771]
条件付きベクトル回帰(CVQR)のためのフレームワークを提案する。
CVQRは、ニューラルネットワークの最適輸送と量子化された最適化を組み合わせて、予測に適用する。
論文 参考訳(メタデータ) (2025-09-29T19:50:19Z) - Curvature Learning for Generalization of Hyperbolic Neural Networks [51.888534247573894]
ハイパーボリックニューラルネットワーク(HNN)は,階層構造を持つ実世界のデータを表現する上で,顕著な有効性を示している。
不適切な曲率により、HNNは最適以下のパラメータに収束し、全体的な性能が低下する可能性がある。
本研究では,損失景観の平滑化を図り,HNNの一般化を向上するシャープネス対応曲率学習法を提案する。
論文 参考訳(メタデータ) (2025-08-24T07:14:30Z) - A Riemannian Optimization Perspective of the Gauss-Newton Method for Feedforward Neural Networks [3.48097307252416]
我々は,スムーズな活性化関数を持つニューラルネットワークを学習するためのガウスニュートン力学の収束性を分析する。
適切な減衰スケジュールが選択されたレバンス・マルカルト力学は、潜在的に条件の悪いニューラル・タンジェント・カーネル行列にも拘わらず、高速収束率が得られることを示す。
論文 参考訳(メタデータ) (2024-12-18T16:51:47Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Last-Iterate Convergence of Adaptive Riemannian Gradient Descent for Equilibrium Computation [52.73824786627612]
本稿では,テクスト幾何学的強単調ゲームに対する新たな収束結果を確立する。
我々のキーとなる結果は、RGDがテクスト幾何学的手法で最終定位線形収束を実現することを示しています。
全体として、ユークリッド設定を超えるゲームに対して、幾何学的に非依存な最終点収束解析を初めて提示する。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Learning Discretized Neural Networks under Ricci Flow [48.47315844022283]
低精度重みとアクティベーションからなる離散ニューラルネットワーク(DNN)について検討する。
DNNは、訓練中に微分不可能な離散関数のために無限あるいはゼロの勾配に悩まされる。
論文 参考訳(メタデータ) (2023-02-07T10:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。