論文の概要: Bayesian Optimization of Multiple Objectives with Different Latencies
- arxiv url: http://arxiv.org/abs/2302.01310v1
- Date: Thu, 2 Feb 2023 18:33:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 12:49:20.932417
- Title: Bayesian Optimization of Multiple Objectives with Different Latencies
- Title(参考訳): 待ち時間が異なる複数目的のベイズ最適化
- Authors: Jack M. Buckingham, Sebastian Rojas Gonzalez and Juergen Branke
- Abstract要約: いくつかのケースでは、目的を個別に評価することができ、異なるレイテンシや評価コストをそれぞれの目標に関連付けることができる。
目的の異なる評価コストを考慮に入れたスキャラライズに基づく知識勾配獲得関数を提案する。
我々はアルゴリズムの一貫性を証明し、常に両方の目的を評価するベンチマークアルゴリズムを著しく上回っていることを実証的に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-objective Bayesian optimization aims to find the Pareto front of
optimal trade-offs between a set of expensive objectives while collecting as
few samples as possible. In some cases, it is possible to evaluate the
objectives separately, and a different latency or evaluation cost can be
associated with each objective. This presents an opportunity to learn the
Pareto front faster by evaluating the cheaper objectives more frequently. We
propose a scalarization based knowledge gradient acquisition function which
accounts for the different evaluation costs of the objectives. We prove
consistency of the algorithm and show empirically that it significantly
outperforms a benchmark algorithm which always evaluates both objectives.
- Abstract(参考訳): 多目的ベイズ最適化は、できるだけ少数のサンプルを集めながら、高価な目標間の最適なトレードオフのパレートフロントを見つけることを目的としている。
いくつかのケースでは、目的を個別に評価することができ、異なるレイテンシや評価コストをそれぞれの目標に関連付けることができる。
これにより、より安価な目的をより頻繁に評価することで、paretoフロントをより早く学習する機会が得られる。
目的の異なる評価コストを考慮に入れたスキャラライズに基づく知識勾配獲得関数を提案する。
アルゴリズムの一貫性を証明し,両目的を常に評価するベンチマークアルゴリズムを著しく上回っていることを示す。
関連論文リスト
- Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - Deep Pareto Reinforcement Learning for Multi-Objective Recommender Systems [60.91599969408029]
複数の目的を同時に最適化することは、レコメンデーションプラットフォームにとって重要なタスクです。
既存の多目的推薦システムは、そのような動的な関係を体系的に考慮していない。
論文 参考訳(メタデータ) (2024-07-04T02:19:49Z) - MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
Amortized Pareto Front (MAP) を用いた新しい低演算アルゴリズム Model Merging を導入する。
MAPは、複数のモデルをマージするためのスケーリング係数のセットを効率的に識別し、関連するトレードオフを反映する。
また,タスク数が比較的少ないシナリオではベイジアンMAP,タスク数の多い状況ではNested MAPを導入し,計算コストを削減した。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z) - Controllable Preference Optimization: Toward Controllable Multi-Objective Alignment [103.12563033438715]
人工知能におけるアライメントは、モデル応答と人間の好みと値の一貫性を追求する。
既存のアライメント技術は、主に一方向であり、様々な目的に対して、最適以下のトレードオフと柔軟性の低下につながる。
制御可能な選好最適化(CPO)を導入し、異なる目的に対する選好スコアを明確に指定する。
論文 参考訳(メタデータ) (2024-02-29T12:12:30Z) - Pareto Set Learning for Expensive Multi-Objective Optimization [5.419608513284392]
膨大な多目的最適化問題は、多くの現実世界のアプリケーションで見られる。
本稿では,MOBOのパレート集合全体を近似する学習に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-10-16T09:41:54Z) - Alleviating Search Bias in Bayesian Evolutionary Optimization with Many
Heterogeneous Objectives [9.139734850798124]
異種目的(HE-MOP)を用いた多目的最適化問題に対処する。
高速な目的に対して探索バイアスを緩和する新たな獲得関数を提案する。
提案アルゴリズムの有効性を,多目的・多目的のベンチマーク問題で検証することによって実証する。
論文 参考訳(メタデータ) (2022-08-25T17:07:40Z) - Learning to Plan Optimistically: Uncertainty-Guided Deep Exploration via
Latent Model Ensembles [73.15950858151594]
本稿では,不確実な長期報酬に直面した最適化による深層探査を可能にするLOVE(Latent Optimistic Value Exploration)を提案する。
潜在世界モデルと値関数推定を組み合わせ、無限水平リターンを予測し、アンサンブルにより関連する不確実性を回復する。
連続行動空間における視覚ロボット制御タスクにLOVEを適用し、最先端や他の探査目標と比較して、平均20%以上のサンプル効率の改善を実証する。
論文 参考訳(メタデータ) (2020-10-27T22:06:57Z) - Information-Theoretic Multi-Objective Bayesian Optimization with
Continuous Approximations [44.25245545568633]
この問題を解決するために,情報理論を用いた連続近似を用いた多目的ベイズ最適化(iMOCA)を提案する。
種々の総合的および実世界のベンチマーク実験により、iMOCAは既存の単一忠実度法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2020-09-12T01:46:03Z) - Resource Aware Multifidelity Active Learning for Efficient Optimization [0.8717253904965373]
本稿では,ブラックボックス関数の最適化を高速化するためのリソース・アウェア・アクティブ・ラーニング(RAAL)戦略を紹介する。
RAAL戦略は最適化タスクの大幅な高速化を可能にするために、最適に複数のポイントを投入する。
論文 参考訳(メタデータ) (2020-07-09T10:01:32Z) - FlexiBO: A Decoupled Cost-Aware Multi-Objective Optimization Approach
for Deep Neural Networks [4.596221278839825]
我々は,FlexiBO(Flexible Multi-Objective Bayesian Optimization)と呼ばれる新しい多目的最適化アルゴリズムを開発し,この問題に対処する。
我々は、画像認識、自然言語処理(NLP)、音声からテキストへの翻訳のための7つの最先端DNN上でFlexiBOを評価する。
論文 参考訳(メタデータ) (2020-01-18T03:26:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。