論文の概要: Accelerated Algorithms for Convex and Non-Convex Optimization on
Manifolds
- arxiv url: http://arxiv.org/abs/2010.08908v1
- Date: Sun, 18 Oct 2020 02:48:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 04:41:54.192525
- Title: Accelerated Algorithms for Convex and Non-Convex Optimization on
Manifolds
- Title(参考訳): 多様体上の凸および非凸最適化の高速化アルゴリズム
- Authors: Lizhen Lin, Bayan Saparbayeva, Michael Minyi Zhang, David B. Dunson
- Abstract要約: 距離における凸問題と非最適化問題の解法を提案する。
提案アルゴリズムは,目的関数における複雑性のレベルに適応する。
- 参考スコア(独自算出の注目度): 9.632674803757475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a general scheme for solving convex and non-convex optimization
problems on manifolds. The central idea is that, by adding a multiple of the
squared retraction distance to the objective function in question, we
"convexify" the objective function and solve a series of convex sub-problems in
the optimization procedure. One of the key challenges for optimization on
manifolds is the difficulty of verifying the complexity of the objective
function, e.g., whether the objective function is convex or non-convex, and the
degree of non-convexity. Our proposed algorithm adapts to the level of
complexity in the objective function. We show that when the objective function
is convex, the algorithm provably converges to the optimum and leads to
accelerated convergence. When the objective function is non-convex, the
algorithm will converge to a stationary point. Our proposed method unifies
insights from Nesterov's original idea for accelerating gradient descent
algorithms with recent developments in optimization algorithms in Euclidean
space. We demonstrate the utility of our algorithms on several manifold
optimization tasks such as estimating intrinsic and extrinsic Fr\'echet means
on spheres and low-rank matrix factorization with Grassmann manifolds applied
to the Netflix rating data set.
- Abstract(参考訳): 多様体上の凸および非凸最適化問題を解くための一般的なスキームを提案する。
中心的な考え方は、問題となる対象関数に平方リトラクション距離を複数加えることにより、目的関数を「凸化」し、最適化手順における一連の凸部分確率を解くことである。
多様体上の最適化の鍵となる課題の1つは、対象函数の複雑さ、例えば、目的函数が凸か非凸か、非凸性の度合いを検証することの難しさである。
提案アルゴリズムは,目的関数における複雑性のレベルに適応する。
目的関数が凸であるとき、アルゴリズムは確実に最適に収束し、加速収束をもたらすことを示す。
目的関数が凸でない場合、アルゴリズムは定常点に収束する。
提案手法は, ユークリッド空間における最適化アルゴリズムの最近の発展にともなって, 勾配降下アルゴリズムの高速化に関するネステロフの考えから得られた知見を統一するものである。
本稿では,球面上の内在的および外在的fr\'echet平均の推定や,netflix 評価データセットに適用されたグラスマン多様体を用いた低ランク行列分解など,いくつかの多様体最適化タスクにおけるアルゴリズムの有用性を示す。
関連論文リスト
- Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Faster Riemannian Newton-type Optimization by Subsampling and Cubic
Regularization [3.867143522757309]
この研究は、制約集合が多様体構造を意味するような制約付き大規模非制約最適化に関するものである。
本稿では,収束性の向上と計算コストの削減を目的とした2階サドル最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-22T00:37:44Z) - Efficient Gradient Approximation Method for Constrained Bilevel
Optimization [2.0305676256390934]
大規模高次元データを用いたバイレベル最適化が開発されている。
本稿では凸と微分不可能な近似を伴う制約付き二値問題について考察する。
論文 参考訳(メタデータ) (2023-02-03T19:34:56Z) - Adaptive Zeroth-Order Optimisation of Nonconvex Composite Objectives [1.7640556247739623]
ゼロ階エントロピー合成目的のためのアルゴリズムを解析し,次元依存性に着目した。
これは、ミラー降下法と推定類似関数を用いて、決定セットの低次元構造を利用して達成される。
勾配を改善するため、Rademacherに基づく古典的なサンプリング法を置き換え、ミニバッチ法が非ユークリ幾何学に対処することを示す。
論文 参考訳(メタデータ) (2022-08-09T07:36:25Z) - An Algebraically Converging Stochastic Gradient Descent Algorithm for
Global Optimization [14.336473214524663]
アルゴリズムの主要な構成要素は、目的関数の値に基づくランダム性である。
アルゴリズムの収束を代数学で証明し、パラメータ空間でチューニングする。
アルゴリズムの効率性とロバスト性を示す数値的な例をいくつか提示する。
論文 参考訳(メタデータ) (2022-04-12T16:27:49Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。