論文の概要: Task-free Adaptive Meta Black-box Optimization
- arxiv url: http://arxiv.org/abs/2601.21475v1
- Date: Thu, 29 Jan 2026 09:54:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.717299
- Title: Task-free Adaptive Meta Black-box Optimization
- Title(参考訳): タスクフリー適応型メタブラックボックス最適化
- Authors: Chao Wang, Licheng Jiao, Lingling Li, Jiaxuan Zhao, Guanchun Wang, Fang Liu, Shuyuan Yang,
- Abstract要約: 対象タスクからのみ最適化データを用いてオンラインパラメータ適応を行うアダプティブメタブラックボックス最適化モデル(ABOM)を提案する。
メタトレーニングと最適化フェーズを分離する従来のメタBBOフレームワークとは異なり、ABOMはクローズドループパラメータ学習機構を導入し、パラメータ化された進化演算子を継続的に自己更新する。
このパラダイムシフトはゼロショット最適化を可能にする: 合成BBOベンチマークにおけるABOMの競合性能と、手作りのトレーニングタスクを伴わない現実的な無人飛行路計画問題。
- 参考スコア(独自算出の注目度): 55.461814601130044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Handcrafted optimizers become prohibitively inefficient for complex black-box optimization (BBO) tasks. MetaBBO addresses this challenge by meta-learning to automatically configure optimizers for low-level BBO tasks, thereby eliminating heuristic dependencies. However, existing methods typically require extensive handcrafted training tasks to learn meta-strategies that generalize to target tasks, which poses a critical limitation for realistic applications with unknown task distributions. To overcome the issue, we propose the Adaptive meta Black-box Optimization Model (ABOM), which performs online parameter adaptation using solely optimization data from the target task, obviating the need for predefined task distributions. Unlike conventional metaBBO frameworks that decouple meta-training and optimization phases, ABOM introduces a closed-loop adaptive parameter learning mechanism, where parameterized evolutionary operators continuously self-update by leveraging generated populations during optimization. This paradigm shift enables zero-shot optimization: ABOM achieves competitive performance on synthetic BBO benchmarks and realistic unmanned aerial vehicle path planning problems without any handcrafted training tasks. Visualization studies reveal that parameterized evolutionary operators exhibit statistically significant search patterns, including natural selection and genetic recombination.
- Abstract(参考訳): 手作りオプティマイザは複雑なブラックボックス最適化(BBO)タスクでは非効率になる。
MetaBBOは、メタ学習によるこの課題に対処し、低レベルのBBOタスクのオプティマイザを自動的に設定することで、ヒューリスティックな依存関係を排除している。
しかし、既存の手法では、ターゲットタスクに一般化するメタストラテジーを学ぶために、手作りの広範囲なトレーニングタスクを必要としており、これは未知のタスク分布を持つ現実的なアプリケーションにとって重要な制限となる。
そこで本研究では,対象タスクからの最適化データのみを用いてオンラインパラメータ適応を行うアダプティブメタブラックボックス最適化モデル(ABOM)を提案する。
メタトレーニングと最適化フェーズを分離する従来のメタBBOフレームワークとは異なり、ABOMはクローズドループ適応パラメータ学習機構を導入している。
このパラダイムシフトにより、ゼロショット最適化が可能となる: ABOMは、手作りのトレーニングタスクを伴わずに、合成BBOベンチマークと現実的な無人航空機経路計画問題において、競争性能を達成する。
可視化研究により、パラメータ化された進化オペレーターは、自然選択や遺伝子組換えを含む統計的に重要な探索パターンを示すことが明らかとなった。
関連論文リスト
- MAESTRO: Meta-learning Adaptive Estimation of Scalarization Trade-offs for Reward Optimization [56.074760766965085]
大規模言語モデル(LLM)の整合性のための効率的なパラダイムとしてグループ相対政策最適化が登場している。
我々は,報酬スカラー化を動的潜在ポリシーとして扱い,モデルの終端隠蔽状態を意味的ボトルネックとして活用するMAESTROを提案する。
本稿では,軽量コンダクタネットワークがメタリワード信号としてグループ相対的優位性を生かしてポリシと共進化する,双方向最適化フレームワークにおけるコンテキスト的帯域幅問題としてこれを定式化する。
論文 参考訳(メタデータ) (2026-01-12T05:02:48Z) - Machine Learning Algorithms for Improving Black Box Optimization Solvers [4.994218549120224]
Black-box Optimization (BBO) は、コストのかかるクエリによってのみ目的がアクセス可能な問題に対処する。
近年の進歩は機械学習(ML)と強化学習(RL)を用いてBBOを強化している。
論文 参考訳(メタデータ) (2025-09-29T23:28:42Z) - Large Language Model Assisted Automated Algorithm Generation and Evolution via Meta-black-box optimization [9.184788298623062]
AwesomeDEは大規模言語モデル(LLM)をメタ最適化の戦略として活用し、人間の介入なしに制約付き進化アルゴリズムの更新ルールを生成する。
素早い設計と反復的な改良を含む重要なコンポーネントは、設計品質への影響を判断するために体系的に分析される。
実験の結果,提案手法は計算効率と解の精度で既存手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-09-16T17:02:24Z) - Clustering-based Meta Bayesian Optimization with Theoretical Guarantee [9.821653903127107]
異種および大規模メタタスクにおける重要な課題に対処するために,スケーラブルで堅牢なメタBO手法を提案する。
提案手法は,移動したメタファンクションを高均一なクラスタに効果的に分割し,幾何学に基づくサロゲートプロトタイプを学習し,オンラインフェーズにおいてメタプライアを適応的に合成する。
論文 参考訳(メタデータ) (2025-03-08T06:46:28Z) - Pretrained Optimization Model for Zero-Shot Black Box Optimization [16.391389860521134]
多様なタスクの最適化から得られた知識を活用する事前学習最適化モデル(POM)を提案する。
POMは、直接アプリケーションや数発のサンプルによる微調整を通じて、ゼロショット最適化の効率的なソリューションを提供する。
少数のサンプルと予算を持つ微調整POMは、大幅な性能改善をもたらす。
論文 参考訳(メタデータ) (2024-05-06T09:11:49Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Conservative Objective Models for Effective Offline Model-Based
Optimization [78.19085445065845]
計算設計の問題は、合成生物学からコンピュータアーキテクチャまで、様々な場面で発生している。
本研究では,分布外入力に対する接地的目標の実際の値を低くする目的関数のモデルを学習する手法を提案する。
COMは、様々なMBO問題に対して、既存のメソッドの実装と性能の面では単純である。
論文 参考訳(メタデータ) (2021-07-14T17:55:28Z) - Meta Learning Black-Box Population-Based Optimizers [0.0]
人口ベースのブラックボックス一般化を推論するメタラーニングの利用を提案する。
メタロス関数は,学習アルゴリズムが検索動作を変更することを促進し,新たなコンテキストに容易に適合できることを示す。
論文 参考訳(メタデータ) (2021-03-05T08:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。