論文の概要: What Makes an Effective Scalarising Function for Multi-Objective
Bayesian Optimisation?
- arxiv url: http://arxiv.org/abs/2104.04790v1
- Date: Sat, 10 Apr 2021 15:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 09:57:20.429082
- Title: What Makes an Effective Scalarising Function for Multi-Objective
Bayesian Optimisation?
- Title(参考訳): 多目的ベイズ最適化に有効なスキャスティング関数は何か?
- Authors: Clym Stock-Williams, Tinkle Chugh, Alma Rahat, Wei Yu
- Abstract要約: 目的のスケール化による多対象ベイズ最適化は、高価な積分ベースの獲得関数の計算を避ける。
ここで定義されるすべての方法論的改善の有効性は、実世界の問題で実証される。
- 参考スコア(独自算出の注目度): 6.4239565988811425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Performing multi-objective Bayesian optimisation by scalarising the
objectives avoids the computation of expensive multi-dimensional integral-based
acquisition functions, instead of allowing one-dimensional standard acquisition
functions\textemdash such as Expected Improvement\textemdash to be applied.
Here, two infill criteria based on hypervolume improvement\textemdash one
recently introduced and one novel\textemdash are compared with the
multi-surrogate Expected Hypervolume Improvement. The reasons for the
disparities in these methods' effectiveness in maximising the hypervolume of
the acquired Pareto Front are investigated. In addition, the effect of the
surrogate model mean function on exploration and exploitation is examined:
careful choice of data normalisation is shown to be preferable to the
exploration parameter commonly used with the Expected Improvement acquisition
function. Finally, the effectiveness of all the methodological improvements
defined here is demonstrated on a real-world problem: the optimisation of a
wind turbine blade aerofoil for both aerodynamic performance and structural
stiffness. With effective scalarisation, Bayesian optimisation finds a large
number of new aerofoil shapes that strongly dominate standard designs.
- Abstract(参考訳): 目的をスカラー化して多目的ベイズ最適化を行うことで、高価な多次元積分ベース獲得関数の計算を避けることができる。
ここでは、最近導入されたハイパーボリューム改善\textemdashと、マルチサロゲートの予測ハイパーボリューム改善との比較を行った。
得られたパレートフロントのハイパーボリュームの最大化におけるこれらの手法の有効性の相違について検討した。
さらに, サロゲートモデルの平均関数が探索と利用に与える影響について検討し, データ正規化の慎重な選択は, 期待された改善獲得関数でよく使用される探索パラメータに好適であることを示した。
最後に, 風車翼翼翼翼の空力性能と構造剛性の両方に対する最適化という実世界の課題について, 方法論的改善の有効性を実証した。
効果的なスカラー化により、ベイズ最適化は標準設計を強く支配する多数の新しいエアロフォイル形状を発見する。
関連論文リスト
- Model Fusion through Bayesian Optimization in Language Model Fine-Tuning [16.86812534268461]
下流タスクのための微調整された事前学習モデルは、様々な領域にまたがる適応性と信頼性で広く採用されているテクニックである。
本稿では,多目的ベイズ最適化により,所望の計量と損失の両方を最適化する新しいモデル融合手法を提案する。
各種下流タスクを対象とした実験では,ベイズ最適化誘導方式による大幅な性能向上が見られた。
論文 参考訳(メタデータ) (2024-11-11T04:36:58Z) - Trajectory-Based Multi-Objective Hyperparameter Optimization for Model Retraining [8.598456741786801]
本稿では,新しいトラジェクトリベース多目的ベイズ最適化アルゴリズムを提案する。
我々のアルゴリズムは、より優れたトレードオフとチューニング効率の両面において、最先端のマルチオブジェクトよりも優れています。
論文 参考訳(メタデータ) (2024-05-24T07:43:45Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - Agent-based Collaborative Random Search for Hyper-parameter Tuning and
Global Function Optimization [0.0]
本稿では,機械学習モデルにおける任意のハイパーパラメータの任意の集合に対する近似値を求めるためのエージェントベース協調手法を提案する。
提案モデルの動作,特に設計パラメータの変化に対して,機械学習およびグローバル関数最適化アプリケーションの両方で検討する。
論文 参考訳(メタデータ) (2023-03-03T21:10:17Z) - Scalable Bayesian optimization with high-dimensional outputs using
randomized prior networks [3.0468934705223774]
本稿では,確率化された先行するニューラルネットワークの自己ストラップ型アンサンブルに基づくBOとシーケンシャル意思決定のためのディープラーニングフレームワークを提案する。
提案手法は,高次元ベクトル空間や無限次元関数空間の値を取る場合においても,設計変数と関心量の関数的関係を近似することができることを示す。
提案手法をBOの最先端手法に対して検証し,高次元出力の課題に対して優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-14T18:55:21Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Composition of kernel and acquisition functions for High Dimensional
Bayesian Optimization [0.1749935196721634]
目的関数の追加性を用いて、ベイズ最適化のカーネルと取得関数の両方をマッピングする。
このap-proachは確率的代理モデルの学習/更新をより効率的にする。
都市給水システムにおけるポンプの制御を実運用に適用するための結果が提示された。
論文 参考訳(メタデータ) (2020-03-09T15:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。