論文の概要: Robust Bayesian optimization with reinforcement learned acquisition
functions
- arxiv url: http://arxiv.org/abs/2210.00476v1
- Date: Sun, 2 Oct 2022 09:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 14:22:40.061596
- Title: Robust Bayesian optimization with reinforcement learned acquisition
functions
- Title(参考訳): 強化学習獲得関数を用いたロバストベイズ最適化
- Authors: Zijing Liu, Xiyao Qu, Xuejun Liu, and Hongqiang Lyu
- Abstract要約: ベイズ最適化において、取得関数(AF)はシーケンシャルサンプリングを誘導し、効率的な収束のために重要な役割を果たす。
この危機に対処するため、データ駆動型AF選択の考え方が提案されている。
シーケンシャルAF選択タスクは、マルコフ決定プロセス(MDP)として形式化され、強力な強化学習(RL)技術を利用する。
- 参考スコア(独自算出の注目度): 4.05984965639419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Bayesian optimization (BO) for expensive black-box optimization tasks,
acquisition function (AF) guides sequential sampling and plays a pivotal role
for efficient convergence to better optima. Prevailing AFs usually rely on
artificial experiences in terms of preferences for exploration or exploitation,
which runs a risk of a computational waste or traps in local optima and
resultant re-optimization. To address the crux, the idea of data-driven AF
selection is proposed, and the sequential AF selection task is further
formalized as a Markov decision process (MDP) and resort to powerful
reinforcement learning (RL) technologies. Appropriate selection policy for AFs
is learned from superior BO trajectories to balance between exploration and
exploitation in real time, which is called reinforcement-learning-assisted
Bayesian optimization (RLABO). Competitive and robust BO evaluations on five
benchmark problems demonstrate RL's recognition of the implicit AF selection
pattern and imply the proposal's potential practicality for intelligent AF
selection as well as efficient optimization in expensive black-box problems.
- Abstract(参考訳): 高価なブラックボックス最適化タスクに対するベイズ最適化(BO)では、取得関数(AF)がシーケンシャルサンプリングをガイドし、効率的な収束のために重要な役割を果たす。
一般的なAFは、探索や搾取の好みの観点から人工的な経験に依存しており、局所的な最適化と結果の再最適化において計算的廃棄物や罠のリスクを負う。
この危機に対処するため、データ駆動型AF選択の概念が提案され、逐次型AF選択タスクはマルコフ決定プロセス(MDP)としてさらに形式化され、強力な強化学習(RL)技術を利用する。
AFsの適切な選択ポリシーは、改良学習支援ベイズ最適化(RLABO)と呼ばれる探索と搾取のバランスをとるために、優れたBO軌道から学習される。
5つのベンチマーク問題に対する競合的かつ堅牢なBO評価は、RLが暗黙のAF選択パターンを認識していることを示し、高コストのブラックボックス問題における効率的な最適化と同様に、知的AF選択のための潜在的実用性を示唆している。
関連論文リスト
- Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - FunBO: Discovering Acquisition Functions for Bayesian Optimization with FunSearch [21.41322548859776]
本稿では、FunBOを用いて、コンピュータコードで書かれた新しい取得関数を学習する方法を示す。
本稿では,FunBOが関数のトレーニング分布の内外をよく一般化するAFを特定する方法を示す。
論文 参考訳(メタデータ) (2024-06-07T10:49:59Z) - Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Enhanced Bayesian Optimization via Preferential Modeling of Abstract
Properties [49.351577714596544]
本研究では,非測定抽象特性に関する専門家の嗜好を代理モデルに組み込むための,人間とAIの協調型ベイズフレームワークを提案する。
優先判断において、誤った/誤解を招く専門家バイアスを処理できる効率的な戦略を提供する。
論文 参考訳(メタデータ) (2024-02-27T09:23:13Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Unleashing the Potential of Acquisition Functions in High-Dimensional
Bayesian Optimization [5.349207553730357]
ベイズ最適化は高価なブラックボックス関数の最適化に広く用いられている。
高次元問題では、取得関数の大域的な最大値を求めることは困難である。
ブラックボックス最適化の歴史的能力を活用するために,複数のデータポイントを利用することにより,より優れたアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-16T13:56:32Z) - Towards Automated Design of Bayesian Optimization via Exploratory
Landscape Analysis [11.143778114800272]
AFの動的選択はBO設計に有用であることを示す。
我々は,オートML支援のオンザフライBO設計への道を開き,その動作をランニング・バイ・ランで調整する。
論文 参考訳(メタデータ) (2022-11-17T17:15:04Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z) - Resource Aware Multifidelity Active Learning for Efficient Optimization [0.8717253904965373]
本稿では,ブラックボックス関数の最適化を高速化するためのリソース・アウェア・アクティブ・ラーニング(RAAL)戦略を紹介する。
RAAL戦略は最適化タスクの大幅な高速化を可能にするために、最適に複数のポイントを投入する。
論文 参考訳(メタデータ) (2020-07-09T10:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。