論文の概要: On stochastic mirror descent with interacting particles: convergence
properties and variance reduction
- arxiv url: http://arxiv.org/abs/2007.07704v2
- Date: Thu, 5 Nov 2020 17:40:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 06:20:12.304041
- Title: On stochastic mirror descent with interacting particles: convergence
properties and variance reduction
- Title(参考訳): 相互作用する粒子をもつ確率ミラー降下について:収束特性と分散還元
- Authors: Anastasia Borovykh, Nikolas Kantas, Panos Parpas, Grigorios A.
Pavliotis
- Abstract要約: 正確な最小化器は、ノイズの量に依存しない正確な最小化器の計算である。
近似アルゴリズムの標準的なプラクティスは、ステップサイズを小さくすることである。
第2の選択肢は、固定されたステップサイズを使用して、アルゴリズムの独立したレプリカを実行し、それらを平均的に実行することだ。
どちらの選択肢が最善かは定かではない。
- 参考スコア(独自算出の注目度): 1.911678487931003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An open problem in optimization with noisy information is the computation of
an exact minimizer that is independent of the amount of noise. A standard
practice in stochastic approximation algorithms is to use a decreasing
step-size. This however leads to a slower convergence. A second alternative is
to use a fixed step-size and run independent replicas of the algorithm and
average these. A third option is to run replicas of the algorithm and allow
them to interact. It is unclear which of these options works best. To address
this question, we reduce the problem of the computation of an exact minimizer
with noisy gradient information to the study of stochastic mirror descent with
interacting particles. We study the convergence of stochastic mirror descent
and make explicit the tradeoffs between communication and variance reduction.
We provide theoretical and numerical evidence to suggest that interaction helps
to improve convergence and reduce the variance of the estimate.
- Abstract(参考訳): ノイズ情報を用いた最適化におけるオープン問題は、ノイズ量に依存しない完全最小化器の計算である。
確率近似アルゴリズムの標準的な実践は、減少ステップサイズを使用することである。
しかし、これは収束が遅くなる。
第2の選択肢は、固定されたステップサイズを使用して、アルゴリズムの独立したレプリカを実行し、それらの平均を実行することだ。
第3の選択肢は,アルゴリズムのレプリカを実行して,対話を可能にすることだ。
どちらの選択肢が最善かは定かではない。
この問題に対処するため,ノイズ勾配情報付き完全最小化器の計算問題を,相互作用する粒子による確率的ミラー降下の研究に還元する。
確率ミラー降下の収束について検討し,コミュニケーションと分散低減のトレードオフを明らかにする。
我々は,相互作用が収束を改善し,推定値の分散を低減するのに役立つことを示す理論的および数値的な証拠を提供する。
関連論文リスト
- Obtaining Lower Query Complexities through Lightweight Zeroth-Order Proximal Gradient Algorithms [65.42376001308064]
複素勾配問題に対する2つの分散化ZO推定器を提案する。
我々は、現在最先端の機能複雑性を$mathcalOleft(minfracdn1/2epsilon2, fracdepsilon3right)$から$tildecalOleft(fracdepsilon2right)$に改善する。
論文 参考訳(メタデータ) (2024-10-03T15:04:01Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Mirror Natural Evolution Strategies [10.495496415022064]
我々は、ゼロ階探索で近似された一階情報と二階情報の両方を利用するゼロ階最適化理論に焦点をあてる。
我々は、textttMiNES の推定共分散行列が、目的関数のヘッセン行列の逆行列に収束することを示す。
論文 参考訳(メタデータ) (2023-08-01T11:45:24Z) - An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems [76.2042837251496]
相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - Hessian Averaging in Stochastic Newton Methods Achieves Superlinear
Convergence [69.65563161962245]
ニュートン法を用いて,滑らかで強凸な目的関数を考える。
最適段階において局所収束に遷移する普遍重み付き平均化スキームが存在することを示す。
論文 参考訳(メタデータ) (2022-04-20T07:14:21Z) - Alternating Mahalanobis Distance Minimization for Stable and Accurate CP
Decomposition [4.847980206213335]
本稿では, テンソルの特異値とベクトルを導出するための新しい定式化を導入する。
このアルゴリズムのサブスウィープは、既知のランクの正確なCPDに対して超線形収束率を達成することができることを示す。
すると、アルゴリズムは各因子に対するマハラノビス距離を最適化するものであり、基底距離は他の因子に依存していると見なす。
論文 参考訳(メタデータ) (2022-04-14T19:56:36Z) - Mirror Descent Strikes Again: Optimal Stochastic Convex Optimization
under Infinite Noise Variance [17.199063087458907]
我々は一様凸ミラーマップのクラスを用いてミラーDescentアルゴリズムの収束率を定量化する。
このアルゴリズムは明確な勾配クリッピングや正規化を必要としない。
我々は,1次オラクルのみを用いた他のアルゴリズムでは改善率を達成できないことを示す情報理論の下界を補完する。
論文 参考訳(メタデータ) (2022-02-23T17:08:40Z) - Stochastic regularized majorization-minimization with weakly convex and
multi-convex surrogates [0.0]
提案アルゴリズムの最初の最適性ギャップは,非テンソル依存データ設定下での様々な手法の期待損失率で減衰することを示す。
非テンション依存データ設定の下で, 各種手法の収束点を求める。
論文 参考訳(メタデータ) (2022-01-05T15:17:35Z) - Distributed stochastic proximal algorithm with random reshuffling for
non-smooth finite-sum optimization [28.862321453597918]
非滑らかな有限サム最小化は機械学習の基本的な問題である。
本稿では,確率的リシャフリングを用いた分散近位勾配アルゴリズムを開発し,その問題の解法を提案する。
論文 参考訳(メタデータ) (2021-11-06T07:29:55Z) - Gradient Free Minimax Optimization: Variance Reduction and Faster
Convergence [120.9336529957224]
本稿では、勾配のないミニマックス最適化問題の大きさを非強設定で表現する。
本稿では,新しいゼロ階分散還元降下アルゴリズムが,クエリの複雑さを最もよく表すことを示す。
論文 参考訳(メタデータ) (2020-06-16T17:55:46Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。