論文の概要: MOCA-HESP: Meta High-dimensional Bayesian Optimization for Combinatorial and Mixed Spaces via Hyper-ellipsoid Partitioning
- arxiv url: http://arxiv.org/abs/2508.06847v1
- Date: Sat, 09 Aug 2025 06:04:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.578646
- Title: MOCA-HESP: Meta High-dimensional Bayesian Optimization for Combinatorial and Mixed Spaces via Hyper-ellipsoid Partitioning
- Title(参考訳): MOCA-HESP:超楕円分割による組合せ空間と混合空間のメタ高次元ベイズ最適化
- Authors: Lam Ngo, Huong Ha, Jeffrey Chan, Hongyu Zhang,
- Abstract要約: まず,分散変数と混合変数を分割する新しいBO法MOCA-HESPを提案する。
次に,MOCA-HESPを変数の最先端BOと統合して,標準的なBO,CASMOPOLITAN,Bounceの3つの実用的なBO手法を開発する。
- 参考スコア(独自算出の注目度): 14.558601519561721
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-dimensional Bayesian Optimization (BO) has attracted significant attention in recent research. However, existing methods have mainly focused on optimizing in continuous domains, while combinatorial (ordinal and categorical) and mixed domains still remain challenging. In this paper, we first propose MOCA-HESP, a novel high-dimensional BO method for combinatorial and mixed variables. The key idea is to leverage the hyper-ellipsoid space partitioning (HESP) technique with different categorical encoders to work with high-dimensional, combinatorial and mixed spaces, while adaptively selecting the optimal encoders for HESP using a multi-armed bandit technique. Our method, MOCA-HESP, is designed as a \textit{meta-algorithm} such that it can incorporate other combinatorial and mixed BO optimizers to further enhance the optimizers' performance. Finally, we develop three practical BO methods by integrating MOCA-HESP with state-of-the-art BO optimizers for combinatorial and mixed variables: standard BO, CASMOPOLITAN, and Bounce. Our experimental results on various synthetic and real-world benchmarks show that our methods outperform existing baselines. Our code implementation can be found at https://github.com/LamNgo1/moca-hesp
- Abstract(参考訳): 近年,高次元ベイズ最適化 (BO) が注目されている。
しかし、既存の手法は主に連続領域の最適化に重点を置いているが、組合せ(正規および分類)と混合領域は依然として困難なままである。
本稿ではまず,組合せ変数と混合変数に対する新しい高次元BO法MOCA-HESPを提案する。
鍵となる考え方は、高次元、組合せ、混合空間を扱うために異なるカテゴリエンコーダを持つ超楕円空間分割(HESP)技術を活用することであり、マルチアームバンディット技術を用いてHESPの最適エンコーダを適応的に選択することである。
提案手法であるMOCA-HESPは,他の組合せおよび混合BOオプティマイザを組み込むことにより,最適化器の性能をさらに向上させることができるように,textit{meta-algorithm} として設計されている。
最後に、MOCA-HESPと最先端のBOオプティマイザを統合して、標準BO、CASMOPOLITAN、Bounceの3つの実用的なBO法を開発した。
種々の合成および実世界のベンチマークによる実験結果から,本手法が既存のベースラインより優れていることが示された。
私たちのコード実装はhttps://github.com/LamNgo1/moca-hespで確認できます。
関連論文リスト
- Tree-Structured Parzen Estimator Can Solve Black-Box Combinatorial Optimization More Efficiently [2.0236482279383905]
木構造パーゼン推定器(TPE)の効率的な最適化アルゴリズムを提案する。
提案手法は,従来のTPEよりも少ない評価で優れた解を同定する。
当社のアルゴリズムはHPOのオープンソースフレームワークであるOptunaで利用可能です。
論文 参考訳(メタデータ) (2025-07-10T08:26:49Z) - Stochastic Optimal Control Matching [53.156277491861985]
最適制御のための新しい反復拡散最適化(IDO)技術である最適制御マッチング(SOCM)を導入する。
この制御は、一致するベクトル場に適合しようとすることで、最小二乗問題を通じて学習される。
実験により,本アルゴリズムは最適制御のための既存のすべての IDO 手法よりも低い誤差を実現する。
論文 参考訳(メタデータ) (2023-12-04T16:49:43Z) - Joint Composite Latent Space Bayesian Optimization [15.262166538890243]
複合遅延空間ベイズ最適化(JoCo)について紹介する。
JoCoは、ニューラルネットワークエンコーダと確率モデルを共同でトレーニングし、高次元の入力空間と出力空間を、管理可能な潜在表現に適応的に圧縮する新しいフレームワークである。
これにより、圧縮された表現上で実行可能なBOが可能となり、JoCoは様々なシミュレートされた実世界の問題において、高次元BOにおける他の最先端の方法よりも優れている。
論文 参考訳(メタデータ) (2023-11-03T19:53:37Z) - Massively Parallel Genetic Optimization through Asynchronous Propagation
of Populations [50.591267188664666]
Propulateは、グローバル最適化のための進化的最適化アルゴリズムとソフトウェアパッケージである。
提案アルゴリズムは, 選択, 突然変異, 交叉, 移動の変種を特徴とする。
Propulateは解の精度を犠牲にすることなく、最大で3桁高速であることがわかった。
論文 参考訳(メタデータ) (2023-01-20T18:17:34Z) - Monte Carlo Tree Search based Variable Selection for High Dimensional
Bayesian Optimization [20.56296965542983]
モンテカルロ木探索(MCTS)に基づく変数選択手法を提案し,変数のサブセットを反復的に選択・最適化する。
高次元合成関数と実世界の問題の実験は、MCTS-VSが最先端の性能を達成できることを示している。
論文 参考訳(メタデータ) (2022-10-04T14:16:41Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Learning Best Combination for Efficient N:M Sparsity [75.34103761423803]
N:M学習は自然に有限コレクション内で最高の組み合わせを求める問題として特徴づけられる。
学習の最良の組み合わせ (LBC) は, 様々なネットワークにおいて, 市販のN:Mスポーサリティ手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-06-14T07:51:31Z) - Bayesian Optimization over Permutation Spaces [30.650753803587794]
BOPS (Permutation Spaces) に対する2つのアルゴリズムの提案と評価を行った。
BOPS-Tの性能を理論的に解析し,その後悔がサブリニアに増加することを示す。
複数の合成および実世界のベンチマーク実験により、BOPS-TとBOPS-Hは、空間に対する最先端のBOアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-12-02T08:20:50Z) - Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search
Spaces [63.22864716473051]
本稿では,反復により探索空間を拡大(およびシフト)する新しいBOアルゴリズムを提案する。
理論的には、どちらのアルゴリズムにおいても、累積的後悔は線形以下の速度で増大する。
論文 参考訳(メタデータ) (2020-09-05T14:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。