論文の概要: Bayesian Optimization of Multiple Objectives with Different Latencies
- arxiv url: http://arxiv.org/abs/2302.01310v1
- Date: Thu, 2 Feb 2023 18:33:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 12:49:20.932417
- Title: Bayesian Optimization of Multiple Objectives with Different Latencies
- Title(参考訳): 待ち時間が異なる複数目的のベイズ最適化
- Authors: Jack M. Buckingham, Sebastian Rojas Gonzalez and Juergen Branke
- Abstract要約: いくつかのケースでは、目的を個別に評価することができ、異なるレイテンシや評価コストをそれぞれの目標に関連付けることができる。
目的の異なる評価コストを考慮に入れたスキャラライズに基づく知識勾配獲得関数を提案する。
我々はアルゴリズムの一貫性を証明し、常に両方の目的を評価するベンチマークアルゴリズムを著しく上回っていることを実証的に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-objective Bayesian optimization aims to find the Pareto front of
optimal trade-offs between a set of expensive objectives while collecting as
few samples as possible. In some cases, it is possible to evaluate the
objectives separately, and a different latency or evaluation cost can be
associated with each objective. This presents an opportunity to learn the
Pareto front faster by evaluating the cheaper objectives more frequently. We
propose a scalarization based knowledge gradient acquisition function which
accounts for the different evaluation costs of the objectives. We prove
consistency of the algorithm and show empirically that it significantly
outperforms a benchmark algorithm which always evaluates both objectives.
- Abstract(参考訳): 多目的ベイズ最適化は、できるだけ少数のサンプルを集めながら、高価な目標間の最適なトレードオフのパレートフロントを見つけることを目的としている。
いくつかのケースでは、目的を個別に評価することができ、異なるレイテンシや評価コストをそれぞれの目標に関連付けることができる。
これにより、より安価な目的をより頻繁に評価することで、paretoフロントをより早く学習する機会が得られる。
目的の異なる評価コストを考慮に入れたスキャラライズに基づく知識勾配獲得関数を提案する。
アルゴリズムの一貫性を証明し,両目的を常に評価するベンチマークアルゴリズムを著しく上回っていることを示す。
関連論文リスト
- Controllable Preference Optimization: Toward Controllable
Multi-Objective Alignment [107.63756895544842]
人工知能におけるアライメントは、モデル応答と人間の好みと値の一貫性を追求する。
既存のアライメント技術は、主に一方向であり、様々な目的に対して、最適以下のトレードオフと柔軟性の低下につながる。
制御可能な選好最適化(CPO)を導入し、異なる目的に対する選好スコアを明確に指定する。
論文 参考訳(メタデータ) (2024-02-29T12:12:30Z) - BOtied: Multi-objective Bayesian optimization with tied multivariate
ranks [49.85896045032822]
非支配解と最高多変量階との自然な関係を示し、これは合同累積分布関数(CDF)の最外層線と一致する。
我々はCDFインジケータに基づくBOtiedと呼ばれる取得関数を提案する。
論文 参考訳(メタデータ) (2023-06-01T04:50:06Z) - Optimizing Multiple Simultaneous Objectives for Voting and Facility
Location [7.0579376123869935]
我々は古典的な施設位置設定について研究し、任意の距離空間に$n$クライアントと$m$可能な施設位置を与える。
我々は、全距離、最大距離などを含む目的の$l$-centrum族を考える。
論文 参考訳(メタデータ) (2022-12-07T05:12:40Z) - Multiobjective Ranking and Selection Using Stochastic Kriging [0.0]
我々は,複数の矛盾する目的を同時に最適化し,シミュレーションによってのみ観測できる多目的シミュレーション最適化問題を考察する。
最適性は、他の目的の質を損なうことなく、目的を改善できないことを意味する。
提案手法は, 最適性能の解を同定する際の誤差を減らすため, 多目的ランキングと選択法を提案する。
論文 参考訳(メタデータ) (2022-09-05T23:51:07Z) - Alleviating Search Bias in Bayesian Evolutionary Optimization with Many
Heterogeneous Objectives [9.139734850798124]
異種目的(HE-MOP)を用いた多目的最適化問題に対処する。
高速な目的に対して探索バイアスを緩和する新たな獲得関数を提案する。
提案アルゴリズムの有効性を,多目的・多目的のベンチマーク問題で検証することによって実証する。
論文 参考訳(メタデータ) (2022-08-25T17:07:40Z) - Taylor Expansion of Discount Factors [56.46324239692532]
実効強化学習(RL)では、値関数を推定するために使われる割引係数は、評価目的を定義するために使われる値としばしば異なる。
本研究では,この割引要因の相違が学習中に与える影響について検討し,2つの異なる割引要因の値関数を補間する目的のファミリーを発見する。
論文 参考訳(メタデータ) (2021-06-11T05:02:17Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - Learning to Plan Optimistically: Uncertainty-Guided Deep Exploration via
Latent Model Ensembles [73.15950858151594]
本稿では,不確実な長期報酬に直面した最適化による深層探査を可能にするLOVE(Latent Optimistic Value Exploration)を提案する。
潜在世界モデルと値関数推定を組み合わせ、無限水平リターンを予測し、アンサンブルにより関連する不確実性を回復する。
連続行動空間における視覚ロボット制御タスクにLOVEを適用し、最先端や他の探査目標と比較して、平均20%以上のサンプル効率の改善を実証する。
論文 参考訳(メタデータ) (2020-10-27T22:06:57Z) - Information-Theoretic Multi-Objective Bayesian Optimization with
Continuous Approximations [44.25245545568633]
この問題を解決するために,情報理論を用いた連続近似を用いた多目的ベイズ最適化(iMOCA)を提案する。
種々の総合的および実世界のベンチマーク実験により、iMOCAは既存の単一忠実度法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2020-09-12T01:46:03Z) - Resource Aware Multifidelity Active Learning for Efficient Optimization [0.8717253904965373]
本稿では,ブラックボックス関数の最適化を高速化するためのリソース・アウェア・アクティブ・ラーニング(RAAL)戦略を紹介する。
RAAL戦略は最適化タスクの大幅な高速化を可能にするために、最適に複数のポイントを投入する。
論文 参考訳(メタデータ) (2020-07-09T10:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。