論文の概要: Decentralized Weakly Convex Optimization Over the Stiefel Manifold
- arxiv url: http://arxiv.org/abs/2303.17779v1
- Date: Fri, 31 Mar 2023 02:56:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 15:29:06.894010
- Title: Decentralized Weakly Convex Optimization Over the Stiefel Manifold
- Title(参考訳): スティフェル多様体上の分散弱凸最適化
- Authors: Jinxin Wang, Jiang Hu, Shixiang Chen, Zengde Deng, Anthony Man-Cho So
- Abstract要約: 我々は分散環境でスティーフェル多様体に焦点をあて、$nMn log-1)$のエージェントの連結ネットワークをテストする。
そこで本研究では,nMn log-1 以下の自然ステーションを強制的に強制する分散下位段階法 (DRSM)$ という手法を提案する。
- 参考スコア(独自算出の注目度): 28.427697270742947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on a class of non-smooth optimization problems over the Stiefel
manifold in the decentralized setting, where a connected network of $n$ agents
cooperatively minimize a finite-sum objective function with each component
being weakly convex in the ambient Euclidean space. Such optimization problems,
albeit frequently encountered in applications, are quite challenging due to
their non-smoothness and non-convexity. To tackle them, we propose an iterative
method called the decentralized Riemannian subgradient method (DRSM). The
global convergence and an iteration complexity of $\mathcal{O}(\varepsilon^{-2}
\log^2(\varepsilon^{-1}))$ for forcing a natural stationarity measure below
$\varepsilon$ are established via the powerful tool of proximal smoothness from
variational analysis, which could be of independent interest. Besides, we show
the local linear convergence of the DRSM using geometrically diminishing
stepsizes when the problem at hand further possesses a sharpness property.
Numerical experiments are conducted to corroborate our theoretical findings.
- Abstract(参考訳): 分散設定におけるスティーフェル多様体上の非スムース最適化問題のクラスに焦点をあて、n$エージェントの連結ネットワークが有限サム目的関数を協調的に最小化し、各成分は周囲ユークリッド空間において弱凸となる。
このような最適化問題はアプリケーションで頻繁に発生するが、その非滑らかさと非凸性のために非常に難しい。
そこで本研究では,分散化リーマン勾配法 (DRSM) と呼ばれる反復的手法を提案する。
大域収束と $\mathcal{O}(\varepsilon^{-2} \log^2(\varepsilon^{-1}))$ の反復複雑性は、変分解析から近い滑らかさの強力なツールによって確立され、これは独立な興味を持つ。
また,DRSMの局所的な線形収束性は,手前の問題がよりシャープな性質を持つ場合に,幾何的に減少する段差を用いて示す。
理論的知見を補うために数値実験を行った。
関連論文リスト
- Stochastic First-Order Methods with Non-smooth and Non-Euclidean Proximal Terms for Nonconvex High-Dimensional Stochastic Optimization [2.0657831823662574]
非問題が非問題である場合、一階法のサンプルは問題次元に線形に依存することがあるが、望ましくない問題に対するものである。
我々のアルゴリズムは距離を使って複雑さを見積もることができる。
MathO (log d) / EuM4。
DISFOM は $mathO (log d) / EuM4 を用いて分散を鋭くすることができることを示す。
論文 参考訳(メタデータ) (2024-06-27T18:38:42Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Decentralized Riemannian Conjugate Gradient Method on the Stiefel
Manifold [59.73080197971106]
本稿では,最急降下法よりも高速に収束する一階共役最適化法を提案する。
これはスティーフェル多様体上の大域収束を達成することを目的としている。
論文 参考訳(メタデータ) (2023-08-21T08:02:16Z) - Can Decentralized Stochastic Minimax Optimization Algorithms Converge
Linearly for Finite-Sum Nonconvex-Nonconcave Problems? [56.62372517641597]
分散化されたミニマックス最適化は、幅広い機械学習に応用されているため、ここ数年で活発に研究されている。
本稿では,非コンカブ問題に対する2つの新しい分散化ミニマックス最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-24T02:19:39Z) - Decentralized Riemannian Algorithm for Nonconvex Minimax Problems [82.50374560598493]
ニューラルネットワークのためのミニマックスアルゴリズムは、多くの問題を解決するために開発された。
本稿では,2種類のミニマックスアルゴリズムを提案する。
そこで我々は, DRSGDAを提案し, 本手法が勾配を達成することを証明した。
論文 参考訳(メタデータ) (2023-02-08T01:42:45Z) - Nonsmooth Nonconvex-Nonconcave Minimax Optimization: Primal-Dual
Balancing and Iteration Complexity Analysis [28.575516056239575]
PLDAの新たな解析手法を導入し,その鍵となるのは,新たに開発された非滑らかかつ二重なエラー反復である。
PLDA が $thetain [0,12]$ のとき、緩やかな仮定の下で最適な $mathcalO()$ を達成する。
論文 参考訳(メタデータ) (2022-09-22T07:12:48Z) - Gradient-Free Methods for Deterministic and Stochastic Nonsmooth
Nonconvex Optimization [94.19177623349947]
非滑らかな非最適化問題は、機械学習とビジネス製造に現れる。
2つのコア課題は、有限収束を保証する効率的な方法の開発を妨げる。
GFMとSGFMの2相版も提案され, 改良された大規模評価結果が得られた。
論文 参考訳(メタデータ) (2022-09-12T06:53:24Z) - Randomized Coordinate Subgradient Method for Nonsmooth Composite
Optimization [11.017632675093628]
非滑らかな問題に対処するコーディネート型劣階法は、リプシッツ型仮定の性質のセットのため、比較的過小評価されている。
論文 参考訳(メタデータ) (2022-06-30T02:17:11Z) - Faster Algorithm and Sharper Analysis for Constrained Markov Decision
Process [56.55075925645864]
制約付き意思決定プロセス (CMDP) の問題点について検討し, エージェントは, 複数の制約を条件として, 期待される累積割引報酬を最大化することを目的とする。
新しいユーティリティ・デュアル凸法は、正規化ポリシー、双対正則化、ネステロフの勾配降下双対という3つの要素の新たな統合によって提案される。
これは、凸制約を受ける全ての複雑性最適化に対して、非凸CMDP問題が$mathcal O (1/epsilon)$の低い境界に達する最初の実演である。
論文 参考訳(メタデータ) (2021-10-20T02:57:21Z) - Stochastic Zeroth-order Riemannian Derivative Estimation and
Optimization [15.78743548731191]
多様体非線型性の非線型性の難しさを克服するために、ガウス滑らか化関数のオラクル版を提案する。
ニューラルネットワークに対するロボティクスとブラックボックス攻撃に対するブラックボックス剛性制御における,結果によるアルゴリズムの適用性と実世界の応用を実証する。
論文 参考訳(メタデータ) (2020-03-25T06:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。