論文の概要: Bayesian Optimization for Min Max Optimization
- arxiv url: http://arxiv.org/abs/2107.13772v1
- Date: Thu, 29 Jul 2021 06:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 13:22:13.363817
- Title: Bayesian Optimization for Min Max Optimization
- Title(参考訳): Min Max Optimizationのためのベイズ最適化
- Authors: Dorina Weichert, Alexander Kister
- Abstract要約: そこで我々は,最適化すべき関数が事前に分かっていないような設定でMin Max Optimizationを実行するアルゴリズムを提案する。
我々は,改善を期待する2つの獲得機能とガウス過程の上部信頼境界を拡張した。
これらの取得機能は、ベンチマーク設定よりも高速に収束する、より良いソリューションを可能にすることを示す。
- 参考スコア(独自算出の注目度): 77.60508571062958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A solution that is only reliable under favourable conditions is hardly a safe
solution. Min Max Optimization is an approach that returns optima that are
robust against worst case conditions. We propose algorithms that perform Min
Max Optimization in a setting where the function that should be optimized is
not known a priori and hence has to be learned by experiments. Therefore we
extend the Bayesian Optimization setting, which is tailored to maximization
problems, to Min Max Optimization problems. While related work extends the two
acquisition functions Expected Improvement and Gaussian Process Upper
Confidence Bound; we extend the two acquisition functions Entropy Search and
Knowledge Gradient. These acquisition functions are able to gain knowledge
about the optimum instead of just looking for points that are supposed to be
optimal. In our evaluation we show that these acquisition functions allow for
better solutions - converging faster to the optimum than the benchmark
settings.
- Abstract(参考訳): 望ましい条件下でのみ信頼できるソリューションは、あまり安全なソリューションではない。
Min Max Optimizationは、最悪のケース条件に対して堅牢なオプティマを返すアプローチである。
本稿では,最適化すべき関数が事前に知られておらず,従って実験によって学習されるような設定でmin max最適化を行うアルゴリズムを提案する。
したがって、最大化問題に適したベイズ最適化設定をMin Max Optimization問題に拡張する。
関連する作業が2つの獲得関数の期待改善とガウス過程の上限を延長する一方で、2つの獲得関数のエントロピー探索と知識勾配を拡張する。
これらの獲得関数は、最適な点を探すだけでなく、最適な点に関する知識を得ることができる。
私たちの評価では、これらの獲得関数は、ベンチマーク設定よりも最適なものに収束するより優れたソリューションを可能にします。
関連論文リスト
- Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z) - Accelerated Algorithms for Constrained Nonconvex-Nonconcave Min-Max Optimization and Comonotone Inclusion [9.551565016483833]
非コンケーブなmin-max最適化問題の構造化クラスであるコモノトンmin-max最適化について検討する。
最初のコントリビューションでは、extra Anchored Gradient (EAG)アルゴリズムを制約付きコモノトン min-max 最適化に拡張する。
第2のコントリビューションでは、FEG(Fast Extra Gradient)アルゴリズムを制約のないmin-max最適化に拡張する。
論文 参考訳(メタデータ) (2022-06-10T17:44:06Z) - Non-Convex Optimization with Certificates and Fast Rates Through Kernel
Sums of Squares [68.8204255655161]
非最適化近似問題を考える。
本稿では,最優先計算を保証するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-11T09:37:04Z) - Optimizing Optimizers: Regret-optimal gradient descent algorithms [9.89901717499058]
我々は,後悔最適アルゴリズムの存在,一意性,一貫性について検討する。
制御問題に対する一階最適条件を提供することにより、後悔最適アルゴリズムはそれらの力学において特定の構造を満たす必要があることを示す。
それらを近似する高速な数値法を提案し,長期的後悔を直接最適化する最適化アルゴリズムを生成する。
論文 参考訳(メタデータ) (2020-12-31T19:13:53Z) - Are we Forgetting about Compositional Optimisers in Bayesian
Optimisation? [66.39551991177542]
本稿では,グローバル最適化のためのサンプル手法を提案する。
この中、重要なパフォーマンス決定の自明さは、取得機能を最大化することです。
3958実験における機能最適化手法の実証的利点を強調する。
論文 参考訳(メタデータ) (2020-12-15T12:18:38Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。