論文の概要: BOIDS: High-dimensional Bayesian Optimization via Incumbent-guided Direction Lines and Subspace Embeddings
- arxiv url: http://arxiv.org/abs/2412.12918v1
- Date: Tue, 17 Dec 2024 13:51:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 14:01:37.915993
- Title: BOIDS: High-dimensional Bayesian Optimization via Incumbent-guided Direction Lines and Subspace Embeddings
- Title(参考訳): BOIDS:既存誘導方向線と部分空間埋め込みによる高次元ベイズ最適化
- Authors: Lam Ngo, Huong Ha, Jeffrey Chan, Hongyu Zhang,
- Abstract要約: BOIDSは,一次元方向線列による最適化を導く新しい高次元BOアルゴリズムである。
また,各ラウンドのラインベース最適化に対して最適な行を特定するための適応的選択手法を提案する。
実験の結果,BOIDSは様々な総合的および実世界のベンチマーク問題において,最先端のベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 14.558601519561721
- License:
- Abstract: When it comes to expensive black-box optimization problems, Bayesian Optimization (BO) is a well-known and powerful solution. Many real-world applications involve a large number of dimensions, hence scaling BO to high dimension is of much interest. However, state-of-the-art high-dimensional BO methods still suffer from the curse of dimensionality, highlighting the need for further improvements. In this work, we introduce BOIDS, a novel high-dimensional BO algorithm that guides optimization by a sequence of one-dimensional direction lines using a novel tailored line-based optimization procedure. To improve the efficiency, we also propose an adaptive selection technique to identify most optimal lines for each round of line-based optimization. Additionally, we incorporate a subspace embedding technique for better scaling to high-dimensional spaces. We further provide theoretical analysis of our proposed method to analyze its convergence property. Our extensive experimental results show that BOIDS outperforms state-of-the-art baselines on various synthetic and real-world benchmark problems.
- Abstract(参考訳): 高価なブラックボックス最適化問題に関して、ベイズ最適化(BO)はよく知られた強力な解である。
多くの現実世界のアプリケーションは多数の次元を含むため、BOを高次元にスケールすることは非常に興味深い。
しかし、最先端の高次元BO法はいまだに次元性の呪いに悩まされており、さらなる改善の必要性を浮き彫りにしている。
本研究では,一次元方向線列で一次元方向線を導出する新しい高次元BOアルゴリズムBOIDSを紹介する。
また,効率を向上させるために,各ラウンドのラインベース最適化に最適なラインを同定する適応選択手法を提案する。
さらに,高次元空間への拡張性を高めるために,部分空間埋め込み手法を取り入れた。
さらに,提案手法を理論的に解析し,収束特性を解析する。
BOIDSは, 様々な総合的および実世界のベンチマーク問題において, 最先端のベースラインよりも優れていることを示す。
関連論文リスト
- High-Dimensional Bayesian Optimization Using Both Random and Supervised Embeddings [0.6291443816903801]
本稿では,小さな次元の線形埋め込み部分空間を組み込んだ高次元最適化手法を提案する。
結果のBO法は、ランダムおよび教師付き線形埋め込みの両方を適応的に組み合わせる。
その結果,高次元ブラックボックス最適化問題に対するEGORSEの有効性が示された。
論文 参考訳(メタデータ) (2025-02-02T16:57:05Z) - Dimensionality Reduction Techniques for Global Bayesian Optimisation [1.433758865948252]
減次元部分空間におけるBOの実行に次元還元を適用した潜在空間ベイズ最適化について検討する。
我々は、より複雑なデータ構造や一般的なDRタスクを管理するために、変分オートエンコーダ(VAE)を使用している。
そこで本研究では,分子生成などのタスク用に設計され,より広い最適化目的のためにアルゴリズムを再構成する実装において,いくつかの重要な補正を提案する。
論文 参考訳(メタデータ) (2024-12-12T11:27:27Z) - Enhanced Bayesian Optimization via Preferential Modeling of Abstract
Properties [49.351577714596544]
本研究では,非測定抽象特性に関する専門家の嗜好を代理モデルに組み込むための,人間とAIの協調型ベイズフレームワークを提案する。
優先判断において、誤った/誤解を招く専門家バイアスを処理できる効率的な戦略を提供する。
論文 参考訳(メタデータ) (2024-02-27T09:23:13Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Computationally Efficient High-Dimensional Bayesian Optimization via
Variable Selection [0.5439020425818999]
本稿では,変数選択を利用した計算効率の高い高次元BO法を提案する。
提案手法では,選択変数を含む空間を軸整列した部分空間を自動的に学習することができる。
我々は,いくつかの合成および実問題に対する本手法の有効性を実証的に示す。
論文 参考訳(メタデータ) (2021-09-20T01:55:43Z) - High-Dimensional Bayesian Optimisation with Variational Autoencoders and
Deep Metric Learning [119.91679702854499]
本研究では,高次元の入力空間上でベイズ最適化を行うためのディープ・メトリック・ラーニングに基づく手法を提案する。
このような帰納バイアスを、利用可能なラベル付きデータの1%だけを用いて達成する。
実証的な貢献として、実世界の高次元ブラックボックス最適化問題に対する最先端の結果を示す。
論文 参考訳(メタデータ) (2021-06-07T13:35:47Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search
Spaces [63.22864716473051]
本稿では,反復により探索空間を拡大(およびシフト)する新しいBOアルゴリズムを提案する。
理論的には、どちらのアルゴリズムにおいても、累積的後悔は線形以下の速度で増大する。
論文 参考訳(メタデータ) (2020-09-05T14:24:40Z) - Semi-supervised Embedding Learning for High-dimensional Bayesian
Optimization [12.238019485880583]
本稿では,半教師付き次元の縮小によりベイズ最適化を反復的に行うための低次元空間を求める新しい枠組みを提案する。
SILBOは、取得関数から取得したラベル付き点とラベルなし点の両方を組み込んで、埋め込み空間学習をガイドする。
SILBOは既存の最先端高次元ベイズ最適化法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-29T14:37:12Z) - Re-Examining Linear Embeddings for High-Dimensional Bayesian
Optimization [20.511115436145467]
BOに対する線形埋め込みの使用に関するいくつかの重要な問題と誤解を同定する。
本研究では,これらの問題に適切に対処することで,BOの線形埋め込みの有効性が著しく向上することを示す。
論文 参考訳(メタデータ) (2020-01-31T05:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。