論文の概要: A H\"olderian backtracking method for min-max and min-min problems
- arxiv url: http://arxiv.org/abs/2007.08810v1
- Date: Fri, 17 Jul 2020 08:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:50:24.332918
- Title: A H\"olderian backtracking method for min-max and min-min problems
- Title(参考訳): min-maxおよびmin-min問題に対するH\"olderian backtracking法
- Authors: J\'er\^ome Bolte (UT1), Lilian Glaudin, Edouard Pauwels (UT3), Mathieu
Serrurier (IRIT-ADRIA)
- Abstract要約: 本稿では,凸空間外におけるmin-maxあるいはmin-min問題の解法を提案する。
我々は、学習においてユビキタスな剛性を仮定し、この手法を多くの最適化問題に適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new algorithm to solve min-max or min-min problems out of the
convex world. We use rigidity assumptions, ubiquitous in learning, making our
method applicable to many optimization problems. Our approach takes advantage
of hidden regularity properties and allows us to devise a simple algorithm of
ridge type. An original feature of our method is to come with automatic step
size adaptation which departs from the usual overly cautious backtracking
methods. In a general framework, we provide convergence theoretical guarantees
and rates. We apply our findings on simple GAN problems obtaining promising
numerical results.
- Abstract(参考訳): 本稿では,min-maxあるいはmin-min問題を凸世界から解く新しいアルゴリズムを提案する。
我々は、学習においてユビキタスな剛性を仮定し、この手法を多くの最適化問題に適用する。
提案手法は隠された正則性特性を利用し、リッジ型の単純なアルゴリズムを考案することができる。
本手法の本来の特徴は,従来の過度に慎重なバックトラック手法から逸脱したステップサイズ自動適応を行うことである。
一般的な枠組みでは、収束理論の保証とレートを提供する。
本研究は,有望な数値結果を得るための単純なGAN問題に適用する。
関連論文リスト
- Riemannian stochastic optimization methods avoid strict saddle points [68.80251170757647]
研究中のポリシーは、確率 1 の厳密なサドル点/部分多様体を避けていることを示す。
この結果は、アルゴリズムの極限状態が局所最小値にしかならないことを示すため、重要な正当性チェックを提供する。
論文 参考訳(メタデータ) (2023-11-04T11:12:24Z) - Smoothed Analysis of Sequential Probability Assignment [16.090378928208885]
本稿では,情報理論的に最適であるminmaxレートと,最大極大推定器オラクルを含むアルゴリズム削減の枠組みについて検討する。
提案手法は,スムーズな逆数に対する逐次確率割当のためのミニマックスレートから,トランスダクティブ学習のためのミニマックスレートへの汎用的な削減を実現する。
論文 参考訳(メタデータ) (2023-03-08T19:25:57Z) - Accelerated SGD for Non-Strongly-Convex Least Squares [14.010916616909743]
非強凸設定における最小二乗回帰問題の近似を考察する。
本稿では,問題のノイズに依存して最適な予測誤差率を実現するための,最初の実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-03T14:39:33Z) - Continuation Newton methods with deflation techniques for global
optimization problems [3.705839280172101]
最適化問題のグローバルな最小点はエンジニアリングである。
本稿では,この非線形大規模問題に対する新しいメメティックアルゴリズムについて考察する。
我々の数値実験によると、新しいアルゴリズムは制約のない未制約問題に対してうまく機能する。
論文 参考訳(メタデータ) (2021-07-29T09:53:49Z) - Mean Field Approximation for solving QUBO problems [0.0]
平均場焼鈍における統計物理学的アプローチと量子力学的アプローチが同じ結果をもたらすことを示す。
提案手法は連続変数を持つ単純な勾配に基づく最小化からなるため,シミュレーションが容易である。
論文 参考訳(メタデータ) (2021-06-06T20:35:28Z) - An Asymptotically Optimal Primal-Dual Incremental Algorithm for
Contextual Linear Bandits [129.1029690825929]
複数の次元に沿った最先端技術を改善する新しいアルゴリズムを提案する。
非文脈線形帯域の特別な場合において、学習地平線に対して最小限の最適性を確立する。
論文 参考訳(メタデータ) (2020-10-23T09:12:47Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Exploiting Higher Order Smoothness in Derivative-free Optimization and
Continuous Bandits [99.70167985955352]
強凸関数のゼロ次最適化問題について検討する。
予測勾配降下アルゴリズムのランダム化近似を考察する。
その結果,0次アルゴリズムはサンプルの複雑性や問題パラメータの点でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-14T10:42:23Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。