論文の概要: A Nonstochastic Control Approach to Optimization
- arxiv url: http://arxiv.org/abs/2301.07902v3
- Date: Mon, 4 Dec 2023 18:19:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 01:38:52.239643
- Title: A Nonstochastic Control Approach to Optimization
- Title(参考訳): 最適化に対する非確率的制御アプローチ
- Authors: Xinyi Chen, Elad Hazan
- Abstract要約: 制御前提条件からの最近の手法が凸ノリティの課題を克服できることを示す。
メソッドのクラスから、類似の結果を後見で得る方法を学ぶことができる。
- 参考スコア(独自算出の注目度): 26.744354103012448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Selecting the best hyperparameters for a particular optimization instance,
such as the learning rate and momentum, is an important but nonconvex problem.
As a result, iterative optimization methods such as hypergradient descent lack
global optimality guarantees in general.
We propose an online nonstochastic control methodology for mathematical
optimization. First, we formalize the setting of meta-optimization, an online
learning formulation of learning the best optimization algorithm from a class
of methods. The meta-optimization problem over gradient-based methods can be
framed as a feedback control problem over the choice of hyperparameters,
including the learning rate, momentum, and the preconditioner.
Although the original optimal control problem is nonconvex, we show how
recent methods from online nonstochastic control using convex relaxations can
be used to overcome the challenge of nonconvexity, and obtain regret guarantees
against the best offline solution. This guarantees that in meta-optimization,
given a sequence of optimization problems, we can learn a method that attains
convergence comparable to that of the best optimization method in hindsight
from a class of methods.
- Abstract(参考訳): 学習率や運動量などの特定の最適化インスタンスに対して最適なハイパーパラメータを選択することは重要な問題であるが、非凸問題である。
結果として、超勾配降下のような反復最適化手法は一般に大域的最適性の保証を欠いている。
数理最適化のためのオンライン非確率制御手法を提案する。
まず,一組の手法から最適な最適化アルゴリズムを学習するオンライン学習形式であるメタ最適化の設定を形式化する。
勾配に基づく手法に対するメタ最適化問題は、学習率、運動量、プレコンディショナーを含むハイパーパラメータの選択に対するフィードバック制御問題とみなすことができる。
当初の最適制御問題は非凸であるが、対流緩和を用いたオンライン非確率制御による最近の手法が非凸性の課題を克服し、最良のオフラインソリューションに対する後悔の保証が得られることを示す。
これは、メタ最適化において、一連の最適化問題を考えると、メソッドのクラスから後ろ向きの最良の最適化手法に匹敵する収束性を得る方法を学ぶことができることを保証している。
関連論文リスト
- Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Introduction to Online Nonstochastic Control [34.77535508151501]
オンラインの非確率制御では、コスト関数と仮定された力学モデルからの摂動の両方が敵によって選択される。
目標は、ベンチマーククラスの政策から見て、最高の政策に対して低い後悔を得ることだ。
論文 参考訳(メタデータ) (2022-11-17T16:12:45Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Learning to Optimize Under Constraints with Unsupervised Deep Neural
Networks [0.0]
機械学習(ML)手法を提案し,汎用的制約付き連続最適化問題の解法を学習する。
本稿では,制約付き最適化問題をリアルタイムに解くための教師なしディープラーニング(DL)ソリューションを提案する。
論文 参考訳(メタデータ) (2021-01-04T02:58:37Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。