論文の概要: First-Order Algorithms for Min-Max Optimization in Geodesic Metric
Spaces
- arxiv url: http://arxiv.org/abs/2206.02041v1
- Date: Sat, 4 Jun 2022 18:53:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-11 14:43:26.440852
- Title: First-Order Algorithms for Min-Max Optimization in Geodesic Metric
Spaces
- Title(参考訳): 測地線距離空間におけるmin-max最適化の一階アルゴリズム
- Authors: Michael I. Jordan, Tianyi Lin, Emmanouil-Vasileios
Vlatakis-Gkaragkounis
- Abstract要約: min-maxアルゴリズムはユークリッド設定で解析されている。
指数関数法 (RCEG) が線形速度で最終収束を補正したことを証明した。
- 参考スコア(独自算出の注目度): 93.35384756718868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From optimal transport to robust dimensionality reduction, a plethora of
machine learning applications can be cast into the min-max optimization
problems over Riemannian manifolds. Though many min-max algorithms have been
analyzed in the Euclidean setting, it has proved elusive to translate these
results to the Riemannian case. Zhang et al. [2022] have recently shown that
geodesic convex concave Riemannian problems always admit saddle-point
solutions. Inspired by this result, we study whether a performance gap between
Riemannian and optimal Euclidean space convex-concave algorithms is necessary.
We answer this question in the negative-we prove that the Riemannian corrected
extragradient (RCEG) method achieves last-iterate convergence at a linear rate
in the geodesically strongly-convex-concave case, matching the Euclidean
result. Our results also extend to the stochastic or non-smooth case where RCEG
and Riemanian gradient ascent descent (RGDA) achieve near-optimal convergence
rates up to factors depending on curvature of the manifold.
- Abstract(参考訳): 最適輸送からロバスト次元還元まで、リーマン多様体上のmin-max最適化問題に多くの機械学習応用を投入することができる。
多くの min-max アルゴリズムはユークリッド設定で解析されているが、これらの結果をリーマンのケースに変換することは明らかである。
Zhang et al.
2022] 最近、測地線凸凸凸リーマン問題は常に鞍点解を許すことが示されている。
この結果から着想を得て、リーマン空間と最適ユークリッド空間凸凸アルゴリズムのパフォーマンスギャップが必要とされるかどうかを考察する。
我々は、リーマン補正超勾配法 (rceg) が、ユークリッド結果と一致する測地強凸凸対の場合の線形速度で最後の石英収束を達成することを負に答える。
また,rceg および riemanian gradient ascent descend (rgda) が多様体の曲率に依存する因子まで近似収束率を達成する確率的あるいは非スムースな場合にも拡張した。
関連論文リスト
- Convergence and Complexity Guarantee for Inexact First-order Riemannian Optimization Algorithms [18.425648833592312]
tBMM は $O(epsilon-2)$ 内の $ilon$-定常点に収束することを示す。
軽度反復の下では、全最適性ギャップが有界である場合、各反復においてサブプロブレムが解かれるときの結果は依然として保たれる。
論文 参考訳(メタデータ) (2024-05-05T22:53:14Z) - Streamlining in the Riemannian Realm: Efficient Riemannian Optimization
with Loopless Variance Reduction [4.578425862931332]
本研究はユークリッドとリーマンの設定の両方で用いられる決定的な還元機構に焦点を当てる。
ユークリッド法により動機付け, コインフリップによって引き起こされる計算で外ループを置換するR法を導入する。
フレームワークとしてR-を用いることで、様々な重要な設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-03-11T12:49:37Z) - Convergence and complexity of block majorization-minimization for constrained block-Riemannian optimization [18.425648833592312]
ブロック化最小化(BMM)は、非排他的部分空間推定のための単純な反復勾配である。
我々の分析はユークリッドの制約を明示的に用いている。
論文 参考訳(メタデータ) (2023-12-16T05:40:19Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - On a class of geodesically convex optimization problems solved via
Euclidean MM methods [50.428784381385164]
ユークリッド凸化関数の違いは、統計学と機械学習の異なるタイプの問題の違いとして記述できることを示す。
最終的に、より広い範囲、より広い範囲の作業を支援するのです。
論文 参考訳(メタデータ) (2022-06-22T23:57:40Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Stochastic Zeroth-order Riemannian Derivative Estimation and
Optimization [15.78743548731191]
多様体非線型性の非線型性の難しさを克服するために、ガウス滑らか化関数のオラクル版を提案する。
ニューラルネットワークに対するロボティクスとブラックボックス攻撃に対するブラックボックス剛性制御における,結果によるアルゴリズムの適用性と実世界の応用を実証する。
論文 参考訳(メタデータ) (2020-03-25T06:58:19Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z) - Optimal Epoch Stochastic Gradient Descent Ascent Methods for Min-Max
Optimization [61.66927778694731]
エポッチ勾配降下法(エポッチ勾配降下法、Epoch-GD)は、2011年にHazan and Kaleによって提唱された。
Epoch-GDA が SCSC min-max 問題の双対性ギャップに対して$O (1/T) の最適レートを達成できることを示す最初の実験である。
論文 参考訳(メタデータ) (2020-02-13T02:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。