論文の概要: Understanding High-Dimensional Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2502.09198v2
- Date: Tue, 10 Jun 2025 12:46:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:39.564897
- Title: Understanding High-Dimensional Bayesian Optimization
- Title(参考訳): 高次元ベイズ最適化の理解
- Authors: Leonard Papenmeier, Matthias Poloczek, Luigi Nardi,
- Abstract要約: 最近の研究は、高次元実世界のタスクに対して単純なベイズ最適化法がうまく機能していることを報告している。
我々は,高次元BOで生じる課題を明らかにし,最近の手法が成功した理由を説明する。
そこで本研究では,これらの知見を応用して最先端性能を実現する,MSRと呼ばれる単純なMLEの変種を提案する。
- 参考スコア(独自算出の注目度): 8.07879230384311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work reported that simple Bayesian optimization (BO) methods perform well for high-dimensional real-world tasks, seemingly contradicting prior work and tribal knowledge. This paper investigates why. We identify underlying challenges that arise in high-dimensional BO and explain why recent methods succeed. Our empirical analysis shows that vanishing gradients caused by Gaussian process (GP) initialization schemes play a major role in the failures of high-dimensional Bayesian optimization (HDBO) and that methods that promote local search behaviors are better suited for the task. We find that maximum likelihood estimation (MLE) of GP length scales suffices for state-of-the-art performance. Based on this, we propose a simple variant of MLE called MSR that leverages these findings to achieve state-of-the-art performance on a comprehensive set of real-world applications. We present targeted experiments to illustrate and confirm our findings.
- Abstract(参考訳): 最近の研究は、単純なベイズ最適化(BO)法が高次元実世界のタスクに対してうまく機能し、以前の作業や部族の知識と矛盾しているように見えることを報告している。
本論文はその理由を考察する。
我々は,高次元BOで生じる課題を特定し,最近の手法が成功した理由を説明する。
実験により,高次元ベイズ最適化(HDBO)の失敗において,ガウス過程(GP)初期化スキームによる勾配の消失が重要な役割を担い,局所探索行動を促進する手法が課題に適していることが示唆された。
GP長の最大誤差推定(MLE)は,最先端性能に十分であることがわかった。
そこで本研究では,MSRと呼ばれるMLEの簡易な変種を提案する。
本研究は,本研究の成果を実証し,確認するために,対象とする実験を提示する。
関連論文リスト
- BOFormer: Learning to Solve Multi-Objective Bayesian Optimization via Non-Markovian RL [15.127370150885348]
我々は,汎用的なQ-ラーニングフレームワークを提案し,このフレームワークをMOBOのシーケンス・モデリングによりサブスタンス化する textitBOFormer を提案する。
広範な評価により,BOFormerは,ベンチマークルールベースのアルゴリズムや学習ベースのアルゴリズムよりも常に優れていることを示す。
論文 参考訳(メタデータ) (2025-05-28T05:00:50Z) - Gradient-based Sample Selection for Faster Bayesian Optimization [11.242721310713963]
大予算のシナリオでは、標準GPモデルを直接活用することは、計算時間とリソース要求において大きな課題に直面します。
本稿では,勾配に基づくサンプル選択ベイズ最適化(GSSBO)を提案し,BOの計算効率を向上させる。
提案手法は,ベースライン法に匹敵する最適化性能を維持しつつ,BOにおけるGPフィッティングの計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2025-04-10T13:38:15Z) - High Dimensional Bayesian Optimization using Lasso Variable Selection [9.051539805042651]
本稿では,ガウスプロセスカーネルの長さスケールを推定することにより,重要な変数を識別する新しい手法を提案する。
提案手法は, 最悪の場合において, サブ線形成長率で累積的後悔を達成できることを実証する。
高次元合成関数と実世界の問題に対する実験により,本手法が最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2025-04-02T13:54:04Z) - Near-optimal Active Reconstruction [3.037563407333583]
アクティブオブジェクト再構成の文脈において,Next Best View(NBV)問題に対するアルゴリズムを設計する。
我々はアルゴリズムの累積的後悔のために線形境界を厳格に導き、ほぼ最適性を保証する。
シミュレーションフレームワークにおいて,アルゴリズムの性能を実証的に評価する。
論文 参考訳(メタデータ) (2025-03-24T09:17:53Z) - Revisiting BPR: A Replicability Study of a Common Recommender System Baseline [78.00363373925758]
我々は,BPRモデルの特徴を考察し,その性能への影響を示し,オープンソースのBPR実装について検討する。
分析の結果,これらの実装とオリジナルのBPR論文の矛盾が明らかとなり,特定の実装に対して最大50%の性能低下がみられた。
BPRモデルは、トップnのレコメンデーションタスクにおける最先端メソッドに近いパフォーマンスレベルを達成でき、特定のデータセット上でもパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-09-21T18:39:53Z) - See Further for Parameter Efficient Fine-tuning by Standing on the Shoulders of Decomposition [56.87609859444084]
パラメータ効率の細かいチューニング(PEFT)は、パラメータの選択したサブセットを最適化し、残りを固定し、計算とストレージのオーバーヘッドを大幅に削減することに焦点を当てている。
分解の観点からそれらを分離することで、すべてのアプローチを統一する第一歩を踏み出します。
本稿では,PEFT技術の性能向上を目的とした,単純かつ効果的なフレームワークとともに,新しい2つのPEFT手法を提案する。
論文 参考訳(メタデータ) (2024-07-07T15:44:42Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Vanilla Bayesian Optimization Performs Great in High Dimensions [5.7574684256411786]
高次元問題はベイズ最適化アルゴリズムのアキレスのヒールと見なされてきた。
既存のアルゴリズムが、モデルの複雑さを下げるレンズを通して、これらの退化にどのように対処しているかを示す。
論文 参考訳(メタデータ) (2024-02-03T18:19:46Z) - Domain Knowledge Injection in Bayesian Search for New Materials [0.0]
探索空間における探索を調整するためのドメイン知識に対応するベイズ最適化(BO)アルゴリズムであるDKIBOを提案する。
材料設計タスクにおいて,ドメイン知識をうまく注入することで,提案手法の実用性を実証的に実証する。
論文 参考訳(メタデータ) (2023-11-26T01:55:55Z) - Provably Efficient Bayesian Optimization with Unknown Gaussian Process Hyperparameter Estimation [44.53678257757108]
目的関数の大域的最適値にサブ線形収束できる新しいBO法を提案する。
本手法では,BOプロセスにランダムなデータポイントを追加するために,マルチアームバンディット法 (EXP3) を用いる。
提案手法は, 様々な合成および実世界の問題に対して, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-12T03:35:45Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - A Particle-based Sparse Gaussian Process Optimizer [5.672919245950197]
本稿では,下降の動的過程を利用した新しいスワム・スワムベースのフレームワークを提案する。
このアプローチの最大の利点は、降下を決定する前に現在の状態についてより深い探索を行うことである。
論文 参考訳(メタデータ) (2022-11-26T09:06:15Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - High-Dimensional Bayesian Optimisation with Variational Autoencoders and
Deep Metric Learning [119.91679702854499]
本研究では,高次元の入力空間上でベイズ最適化を行うためのディープ・メトリック・ラーニングに基づく手法を提案する。
このような帰納バイアスを、利用可能なラベル付きデータの1%だけを用いて達成する。
実証的な貢献として、実世界の高次元ブラックボックス最適化問題に対する最先端の結果を示す。
論文 参考訳(メタデータ) (2021-06-07T13:35:47Z) - Directed particle swarm optimization with Gaussian-process-based
function forecasting [15.733136147164032]
パーティクルスワム最適化 (PSO) は、探索空間を囲む一組の候補解を、ランダム化されたステップ長を持つ最もよく知られたグローバルおよびローカルな解へ移動させる反復探索法である。
本アルゴリズムは探索的・搾取的行動に対して望ましい特性が得られることを示す。
論文 参考訳(メタデータ) (2021-02-08T13:02:57Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Provably Efficient Reward-Agnostic Navigation with Linear Value
Iteration [143.43658264904863]
我々は、最小二乗値スタイルのアルゴリズムで一般的に使用される、より標準的なベルマン誤差の概念の下での反復が、ほぼ最適値関数の学習において強力なPAC保証を提供することを示す。
そこで本稿では,任意の(線形な)報酬関数に対して,最適に近いポリシーを学習するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-18T04:34:21Z) - On the Convergence Rate of Projected Gradient Descent for a
Back-Projection based Objective [58.33065918353532]
我々は、最小二乗(LS)の代替として、バックプロジェクションに基づく忠実度項を考える。
LS項ではなくBP項を用いることで最適化アルゴリズムの繰り返しを少なくすることを示す。
論文 参考訳(メタデータ) (2020-05-03T00:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。