論文の概要: Global Optimization with Parametric Function Approximation
- arxiv url: http://arxiv.org/abs/2211.09100v1
- Date: Wed, 16 Nov 2022 18:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:06:40.823417
- Title: Global Optimization with Parametric Function Approximation
- Title(参考訳): パラメトリック関数近似による大域的最適化
- Authors: Chong Liu, Yu-Xiang Wang
- Abstract要約: 雑音の多いゼロ次オラクルによる大域的最適化の問題を考察する。
パラメトリック関数の族を利用する新しいアルゴリズムGO-UCBを提案する。
GO-UCB が $tildeO(sqrtT)$ の累積後悔を達成することを示す。
- 参考スコア(独自算出の注目度): 19.699902334787325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of global optimization with noisy zeroth order
oracles - a well-motivated problem useful for various applications ranging from
hyper-parameter tuning for deep learning to new material design. Existing work
relies on Gaussian processes or other non-parametric family, which suffers from
the curse of dimensionality. In this paper, we propose a new algorithm GO-UCB
that leverages a parametric family of functions (e.g., neural networks)
instead. Under a realizable assumption and a few other mild geometric
conditions, we show that GO-UCB achieves a cumulative regret of
$\tilde{O}(\sqrt{T})$ where $T$ is the time horizon. At the core of GO-UCB is a
carefully designed uncertainty set over parameters based on gradients that
allows optimistic exploration. Numerical simulation illustrates that GO-UCB
works better than classical Bayesian optimization approaches in high
dimensional cases, even if the model is misspecified.
- Abstract(参考訳): 我々は,高パラメータチューニングやディープラーニング,新しい材料設計など,さまざまな応用に有用な,ノイズの多いゼロ次オラクルによる大域的最適化の問題を考察する。
既存の研究は、次元の呪いに苦しむガウス過程や他の非パラメトリック族に依存している。
本稿では,パラメトリックな関数群(例えばニューラルネットワーク)を利用する新しいアルゴリズムGO-UCBを提案する。
実現可能な仮定と他の幾何の穏やかな条件の下で、go-ucb は$t$ が時間軸である$\tilde{o}(\sqrt{t})$ の累積的後悔を達成する。
GO-UCBの中核は、楽観的な探索を可能にする勾配に基づくパラメータに関する慎重に設計された不確実性セットである。
数値シミュレーションにより、GO-UCBは、たとえモデルが不特定であっても、高次元の場合において古典的ベイズ最適化アプローチよりもうまく機能することを示した。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - STORM+: Fully Adaptive SGD with Momentum for Nonconvex Optimization [74.1615979057429]
本研究では,スムーズな損失関数に対する期待値である非バッチ最適化問題について検討する。
我々の研究は、学習率と運動量パラメータを適応的に設定する新しいアプローチとともに、STORMアルゴリズムの上に構築されている。
論文 参考訳(メタデータ) (2021-11-01T15:43:36Z) - Bayesian Optimisation for Constrained Problems [0.0]
本稿では,制約を扱える知恵グラディエント獲得関数の新たな変種を提案する。
我々は、このアルゴリズムを、他の4つの最先端制約されたベイズ最適化アルゴリズムと比較し、その優れた性能を実証する。
論文 参考訳(メタデータ) (2021-05-27T15:43:09Z) - Bayesian Optimistic Optimisation with Exponentially Decaying Regret [58.02542541410322]
現在の実用的なBOアルゴリズムは、$mathcalO(fraclogNsqrtN)$から$mathcalO(e-sqrtN)$まで、$N$は評価の数である。
本稿では,boと木に基づく楽観的楽観化の概念を絡み合うことにより,無音環境における後悔を改善できる可能性について検討する。
次数$mathcal O(N-sqrt)で指数的再帰を達成できる最初の実践的手法であるBOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T13:07:44Z) - Towards Tractable Optimism in Model-Based Reinforcement Learning [37.51073590932658]
成功させるためには、楽観的なRLアルゴリズムは真の値関数(最適化)を過大に見積もる必要があるが、不正確な(推定誤差)ほどではない。
我々は,これらのスケーラブルな楽観的モデルベースアルゴリズムを,トラクタブルノイズ拡張MDPの解法として再解釈する。
この誤差が低減された場合、楽観的なモデルベースRLアルゴリズムは、連続制御問題における最先端性能と一致することを示す。
論文 参考訳(メタデータ) (2020-06-21T20:53:19Z) - Better Parameter-free Stochastic Optimization with ODE Updates for
Coin-Betting [31.60239268539764]
PFSGDアルゴリズムは最適理論性能を達成しながら、学習速度の設定を必要としない。
そこで本稿では, トランク型モデル上での連続時間Coin-Bettingに基づく新しいパラメータフリーアルゴリズムにより, 経験的ギャップを埋める。
この新しいパラメータフリーアルゴリズムは「最良のデフォルト」学習率でアルゴリズムを上回り、チューニングの必要なく微調整されたベースラインの性能とほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-06-12T23:10:25Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Explicit Gradient Learning [28.844181847562695]
Black-Box Optimization (BBO) 法は解析的表現のない最適システムを見つけることができる。
EGLは、目標勾配を直接推定するためにNNを訓練する。
論文 参考訳(メタデータ) (2020-06-09T08:56:24Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。