論文の概要: Iso-Riemannian Optimization on Learned Data Manifolds
- arxiv url: http://arxiv.org/abs/2510.21033v1
- Date: Thu, 23 Oct 2025 22:34:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.364897
- Title: Iso-Riemannian Optimization on Learned Data Manifolds
- Title(参考訳): 学習データマニフォールドのアイソ・リーマン最適化
- Authors: Willem Diepeveen, Melanie Weber,
- Abstract要約: アイソ・リーマン幾何学を用いた学習データ多様体の最適化のための原理的フレームワークを提案する。
提案手法は,解釈可能なバリセンタ,クラスタリングの改善,逆問題に対する効率の良い解が得られることを示す。
これらの結果は、アイソ・リーマン幾何学の下での最適化が、学習された多様体の写像に固有の歪みを克服できることを証明している。
- 参考スコア(独自算出の注目度): 6.345340156849189
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: High-dimensional data that exhibit an intrinsic low-dimensional structure are ubiquitous in machine learning and data science. While various approaches allow for learning the corresponding data manifold from finite samples, performing downstream tasks such as optimization directly on these learned manifolds presents a significant challenge. This work introduces a principled framework for optimization on learned data manifolds using iso-Riemannian geometry. Our approach addresses key limitations of classical Riemannian optimization in this setting, specifically, that the Levi-Civita connection fails to yield constant-speed geodesics, and that geodesic convexity assumptions break down under the learned pullback constructions commonly used in practice. To overcome these challenges, we propose new notions of monotonicity and Lipschitz continuity tailored to the iso-Riemannian setting and propose iso-Riemannian descent algorithms for which we provide a detailed convergence analysis. We demonstrate the practical effectiveness of those algorithms on both synthetic and real datasets, including MNIST under a learned pullback structure. Our approach yields interpretable barycentres, improved clustering, and provably efficient solutions to inverse problems, even in high-dimensional settings. These results establish that optimization under iso-Riemannian geometry can overcome distortions inherent to learned manifold mappings.
- Abstract(参考訳): 固有の低次元構造を示す高次元データは、機械学習やデータサイエンスにおいてユビキタスである。
様々なアプローチにより、有限標本から対応するデータ多様体を学習することができるが、これらの学習多様体上で直接最適化などの下流タスクを実行することは大きな課題である。
本研究は、アイソ・リーマン幾何学を用いた学習データ多様体の最適化のための原理的枠組みを導入する。
この設定における古典的リーマン最適化の鍵となる制限、具体的には、レヴィ・チヴィタ接続は定速測地学を得られず、測地的凸性仮定は、実際によく用いられる学習された引き戻し構造の下で破滅する。
これらの課題を克服するために、アイソ・リーマン的設定に合わせて単調性やリプシッツ連続性の新たな概念を提案し、詳細な収束解析を提供するアイソ・リーマン降下アルゴリズムを提案する。
学習したプルバック構造の下で,MNISTを含む合成データと実データの両方に対して,これらのアルゴリズムの有効性を示す。
提案手法では,高次元設定においても,解釈可能なバリセントル,クラスタリングの改善,逆問題に対する効率の良い解が得られる。
これらの結果は、アイソ・リーマン幾何学の下での最適化が、学習された多様体の写像に固有の歪みを克服できることを証明している。
関連論文リスト
- Landing with the Score: Riemannian Optimization through Denoising [28.573407652000437]
本稿では,データ分布を最適化に必要な幾何演算に接続するリンク関数を提案する。
この関数が本質多様体演算の回復を可能にすることを示す。
本稿では,2つの効率的な推論時間アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-27T15:10:54Z) - Score-based Pullback Riemannian Geometry: Extracting the Data Manifold Geometry using Anisotropic Flows [10.649159213723106]
本稿では,データ駆動型リーマン幾何学のフレームワークを提案する。
提案手法は,データサポートを通した高品質な測地線を生成する。
これは、データ多様体の完全な幾何学を抽出する最初のスケーラブルなフレームワークである。
論文 参考訳(メタデータ) (2024-10-02T18:52:12Z) - Nonconvex Federated Learning on Compact Smooth Submanifolds With Heterogeneous Data [23.661713049508375]
本稿では,クライアントの設定においてサブマニフォールド上で学習するアルゴリズムを提案する。
提案アルゴリズムは,新しい解析手法を用いて一階最適解の近傍に部分収束することを示す。
論文 参考訳(メタデータ) (2024-06-12T17:53:28Z) - FORML: A Riemannian Hessian-free Method for Meta-learning on Stiefel Manifolds [4.757859522106933]
本稿では、スティーフェル多様体上の微分の1次近似を用いたヘッセンフリーアプローチを提案する。
本手法は計算負荷とメモリフットプリントを大幅に削減する。
論文 参考訳(メタデータ) (2024-02-28T10:57:30Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - On a class of geodesically convex optimization problems solved via
Euclidean MM methods [50.428784381385164]
ユークリッド凸化関数の違いは、統計学と機械学習の異なるタイプの問題の違いとして記述できることを示す。
最終的に、より広い範囲、より広い範囲の作業を支援するのです。
論文 参考訳(メタデータ) (2022-06-22T23:57:40Z) - First-Order Algorithms for Min-Max Optimization in Geodesic Metric
Spaces [93.35384756718868]
min-maxアルゴリズムはユークリッド設定で解析されている。
指数関数法 (RCEG) が線形速度で最終収束を補正したことを証明した。
論文 参考訳(メタデータ) (2022-06-04T18:53:44Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。