論文の概要: Geometric Learning in Black-Box Optimization: A GNN Framework for Algorithm Performance Prediction
- arxiv url: http://arxiv.org/abs/2506.16144v1
- Date: Thu, 19 Jun 2025 08:56:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.004627
- Title: Geometric Learning in Black-Box Optimization: A GNN Framework for Algorithm Performance Prediction
- Title(参考訳): ブラックボックス最適化における幾何学的学習:アルゴリズム性能予測のためのGNNフレームワーク
- Authors: Ana Kostovska, Carola Doerr, Sašo Džeroski, Panče Panov, Tome Eftimov,
- Abstract要約: 本研究では、最適化アルゴリズムの性能を予測するために、グラフデータ構造とグラフニューラルネットワークの利用について検討する。
2つのモジュラーフレームワーク、modCMA-ES と modDE に焦点をあて、このフレームワークは2つの広く使われている微分自由最適化アルゴリズムを分解する。
6つのランタイム予算と2つの問題次元にまたがる24のBBOB問題に対して、324 modCMA-ESおよび576 modDE変異を評価した。
- 参考スコア(独自算出の注目度): 3.673004818820981
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated algorithm performance prediction in numerical blackbox optimization often relies on problem characterizations, such as exploratory landscape analysis features. These features are typically used as inputs to machine learning models and are represented in a tabular format. However, such approaches often overlook algorithm configurations, a key factor influencing performance. The relationships between algorithm operators, parameters, problem characteristics, and performance outcomes form a complex structure best represented as a graph. This work explores the use of heterogeneous graph data structures and graph neural networks to predict the performance of optimization algorithms by capturing the complex dependencies between problems, algorithm configurations, and performance outcomes. We focus on two modular frameworks, modCMA-ES and modDE, which decompose two widely used derivative-free optimization algorithms: the covariance matrix adaptation evolution strategy (CMA-ES) and differential evolution (DE). We evaluate 324 modCMA-ES and 576 modDE variants on 24 BBOB problems across six runtime budgets and two problem dimensions. Achieving up to 36.6% improvement in MSE over traditional tabular-based methods, this work highlights the potential of geometric learning in black-box optimization.
- Abstract(参考訳): 数値ブラックボックス最適化における自動アルゴリズム性能予測は、探索ランドスケープ解析機能などの問題特徴に依存することが多い。
これらの機能は一般的に機械学習モデルの入力として使用され、表形式で表現される。
しかし、そのようなアプローチはしばしばアルゴリズムの構成を見落とし、性能に影響を及ぼす重要な要素である。
アルゴリズム演算子、パラメータ、問題特性、および性能結果の間の関係は、グラフとして最もよく表される複雑な構造を形成する。
本研究では、不均一なグラフデータ構造とグラフニューラルネットワークを用いて、問題、アルゴリズム構成、パフォーマンス結果の間の複雑な依存関係をキャプチャすることで、最適化アルゴリズムのパフォーマンスを予測する。
我々は、共分散行列適応進化戦略(CMA-ES)と微分進化(DE)という2つの広く使われている微分自由最適化アルゴリズムを分解したmodCMA-ESとmodDEの2つのモジュラーフレームワークに焦点を当てた。
6つのランタイム予算と2つの問題次元にまたがる24のBBOB問題に対して、324 modCMA-ESおよび576 modDE変異を評価した。
従来の表型手法よりも最大36.6%改善したMSEを達成し、ブラックボックス最適化における幾何学的学習の可能性を強調した。
関連論文リスト
- Benchmarking Randomized Optimization Algorithms on Binary, Permutation, and Combinatorial Problem Landscapes [8.337399973715396]
RHC(Randomized Hill Climbing)、SA(Simulated Annealing)、GA(Genematic Algorithms)、MIMIC(MIMIC)の4つのランダム化最適化アルゴリズムの性能を評価する。
これらのアルゴリズムをベンチマーク適合度関数を用いて比較し,各問題カテゴリの課題と要件を明らかにする。
本研究は,ソリューションの品質,収束速度,計算コスト,堅牢性など,主要な性能指標に基づいて,各アルゴリズムの有効性を解析する。
論文 参考訳(メタデータ) (2025-01-21T23:13:01Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - On a class of geodesically convex optimization problems solved via
Euclidean MM methods [50.428784381385164]
ユークリッド凸化関数の違いは、統計学と機械学習の異なるタイプの問題の違いとして記述できることを示す。
最終的に、より広い範囲、より広い範囲の作業を支援するのです。
論文 参考訳(メタデータ) (2022-06-22T23:57:40Z) - A Simple Evolutionary Algorithm for Multi-modal Multi-objective
Optimization [0.0]
マルチモーダル・多目的最適化問題(MMOP)を解くための定常進化アルゴリズムを提案する。
本報告では,1000関数評価の低計算予算を用いて,様々なテストスイートから得られた21個のMMOPの性能について報告する。
論文 参考訳(メタデータ) (2022-01-18T03:31:11Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Meta Learning Black-Box Population-Based Optimizers [0.0]
人口ベースのブラックボックス一般化を推論するメタラーニングの利用を提案する。
メタロス関数は,学習アルゴリズムが検索動作を変更することを促進し,新たなコンテキストに容易に適合できることを示す。
論文 参考訳(メタデータ) (2021-03-05T08:13:25Z) - Landscape-Aware Fixed-Budget Performance Regression and Algorithm
Selection for Modular CMA-ES Variants [1.0965065178451106]
市販の教師あり学習手法を用いて,高品質な性能予測が可能であることを示す。
このアプローチを,モジュール型CMA-ESアルゴリズム群から選択した,非常に類似したアルゴリズムのポートフォリオ上でテストする。
論文 参考訳(メタデータ) (2020-06-17T13:34:57Z) - MATE: A Model-based Algorithm Tuning Engine [2.4693304175649304]
モデルに基づくアルゴリズム変換エンジン、すなわちMATEを導入し、アルゴリズムのパラメータを目標最適化問題の特徴の表現として表現する。
パラメータと問題の特徴の関係を象徴的回帰問題として求める問題を定式化し,遺伝子プログラミングを用いてこれらの表現を抽出する。
本評価では,OneMax,LeadingOnes,BinValue,Jumpの最適化問題に対して,(1+1) EAおよびRSSアルゴリズムの構成に適用する。
論文 参考訳(メタデータ) (2020-04-27T12:50:48Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。