論文の概要: Learning Beyond Euclid: Curvature-Adaptive Generalization for Neural Networks on Manifolds
- arxiv url: http://arxiv.org/abs/2507.02999v1
- Date: Tue, 01 Jul 2025 23:16:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.515617
- Title: Learning Beyond Euclid: Curvature-Adaptive Generalization for Neural Networks on Manifolds
- Title(参考訳): ユークリッドを超えて学ぶ:マニフォールド上のニューラルネットワークの曲率適応的一般化
- Authors: Krisanu Sarkar,
- Abstract要約: 既存の一般化理論はしばしばユークリッド幾何学から導かれる複雑性測度に依存し、非ユークリッド空間の内在的構造を説明できない。
我々は、断面曲率、体積成長、射影半径などの多様体固有の性質を明示的に組み込んだ数界を導出する。
このフレームワークは、本質的な幾何学が学習能力にどのように影響するかを原則的に理解し、構造化データ領域の深層学習に理論的洞察と実践的意味の両方を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we develop new generalization bounds for neural networks trained on data supported on Riemannian manifolds. Existing generalization theories often rely on complexity measures derived from Euclidean geometry, which fail to account for the intrinsic structure of non-Euclidean spaces. Our analysis introduces a geometric refinement: we derive covering number bounds that explicitly incorporate manifold-specific properties such as sectional curvature, volume growth, and injectivity radius. These geometric corrections lead to sharper Rademacher complexity bounds for classes of Lipschitz neural networks defined on compact manifolds. The resulting generalization guarantees recover standard Euclidean results when curvature is zero but improve substantially in settings where the data lies on curved, low-dimensional manifolds embedded in high-dimensional ambient spaces. We illustrate the tightness of our bounds in negatively curved spaces, where the exponential volume growth leads to provably higher complexity, and in positively curved spaces, where the curvature acts as a regularizing factor. This framework provides a principled understanding of how intrinsic geometry affects learning capacity, offering both theoretical insight and practical implications for deep learning on structured data domains.
- Abstract(参考訳): 本研究では,リーマン多様体上のデータに基づいて学習したニューラルネットワークの新しい一般化境界を開発する。
既存の一般化理論はしばしばユークリッド幾何学から導かれる複雑性測度に依存しており、これは非ユークリッド空間の内在的構造を説明できない。
我々は、断面曲率、体積成長、射影半径などの多様体固有の性質を明示的に組み込んだ被覆数境界を導出する。
これらの幾何補正はコンパクト多様体上で定義されるリプシッツニューラルネットワークのクラスに対してよりシャープなラデマッハ複雑性境界をもたらす。
結果として得られる一般化は、曲率が 0 であるときの標準ユークリッド結果の回復を保証するが、高次元の周囲空間に埋め込まれた曲線付き低次元多様体上の設定において、大幅に改善される。
負の湾曲した空間において、指数体積の増大が証明可能なより高い複雑性を導き、正の湾曲した空間では曲率を正則化因子として作用する。
このフレームワークは、本質的な幾何学が学習能力にどのように影響するかを原則的に理解し、構造化データドメインの深層学習に理論的洞察と実践的意味の両方を提供する。
関連論文リスト
- Adaptive Riemannian Graph Neural Networks [29.859977834688625]
グラフ上の連続および異方性計量テンソル場を学習する新しいフレームワークを導入する。
これにより各ノードがその最適な局所幾何学を決定でき、モデルがグラフの構造的景観に流動的に適応できる。
本手法は, ヘテロ親和性ベンチマークとホモ親和性ベンチマークの双方において, 優れた性能を示す。
論文 参考訳(メタデータ) (2025-08-04T16:55:02Z) - Understanding In-Context Learning on Structured Manifolds: Bridging Attention to Kernel Methods [48.038668788625465]
In-context Learning (ICL) は自然言語と視覚領域において顕著な成功を収めた。
本研究では、多様体上のH"古い関数の回帰に対するICCの理論的研究を開始する。
本研究は, ICLにおける幾何学の役割に関する基礎的な知見と, 非線形モデルのICLを研究するためのノベルティクスツールを提供する。
論文 参考訳(メタデータ) (2025-06-12T17:56:26Z) - Decoder ensembling for learned latent geometries [15.484595752241122]
我々は、関連する予想多様体上の測地線を容易に計算する方法を示す。
このシンプルで信頼性が高く、簡単に使える潜在測地に一歩近づきます。
論文 参考訳(メタデータ) (2024-08-14T12:35:41Z) - Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Exploring Data Geometry for Continual Learning [64.4358878435983]
非定常データストリームのデータ幾何を探索することにより,新しい視点から連続学習を研究する。
提案手法は,新しいデータによって引き起こされる幾何構造に対応するために,基底空間の幾何学を動的に拡張する。
実験により,本手法はユークリッド空間で設計したベースライン法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-04-08T06:35:25Z) - kHGCN: Tree-likeness Modeling via Continuous and Discrete Curvature
Learning [39.25873010585029]
本研究では,学習過程においてネットワークトポロジが伝達するメッセージを符号化することを目的として,離散構造と連続学習空間の曲率を探索する。
曲率を考慮したハイパーボリックグラフ畳み込みニューラルネットワークであるKappaHGCNを提案する。
論文 参考訳(メタデータ) (2022-12-04T10:45:42Z) - A singular Riemannian geometry approach to Deep Neural Networks I.
Theoretical foundations [77.86290991564829]
ディープニューラルネットワークは、音声認識、機械翻訳、画像解析など、いくつかの科学領域で複雑な問題を解決するために広く使われている。
我々は、リーマン計量を備えた列の最後の多様体で、多様体間の写像の特定の列を研究する。
このようなシーケンスのマップの理論的性質について検討し、最終的に実践的な関心を持つニューラルネットワークの実装間のマップのケースに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-17T11:43:30Z) - Deep Networks Provably Classify Data on Curves [12.309532551321334]
本研究では, 完全連結ニューラルネットワークを用いて, 単位球上の2つの不連続な滑らかな曲線から引き出されたデータを分類するモデル問題について検討する。
i) ネットワーク深度が問題の難易度と (ii) ネットワーク幅と標本数に固有の性質に比例すると, ランダムな勾配降下は2つの曲線上のすべての点を高い確率で正しく分類する。
論文 参考訳(メタデータ) (2021-07-29T20:40:04Z) - Semi-Riemannian Graph Convolutional Networks [36.09315878397234]
まず、定数非零曲率の半リーマン多様体のデータをモデル化する原理付きセミリーマンGCNを開発する。
本手法は,階層型グラフのような混合ヘテロジニアストポロジーをサイクルでモデル化するのに十分柔軟である幾何学的帰納バイアスを与える。
論文 参考訳(メタデータ) (2021-06-06T14:23:34Z) - A Unifying and Canonical Description of Measure-Preserving Diffusions [60.59592461429012]
ユークリッド空間における測度保存拡散の完全なレシピは、最近、いくつかのMCMCアルゴリズムを単一のフレームワークに統合した。
我々は、この構成を任意の多様体に改善し一般化する幾何学理論を開発する。
論文 参考訳(メタデータ) (2021-05-06T17:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。