論文の概要: SMOG: Scalable Meta-Learning for Multi-Objective Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2601.22131v1
- Date: Thu, 29 Jan 2026 18:51:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.095619
- Title: SMOG: Scalable Meta-Learning for Multi-Objective Bayesian Optimization
- Title(参考訳): SMOG:多目的ベイズ最適化のためのスケーラブルなメタラーニング
- Authors: Leonard Papenmeier, Petru Tighineanu,
- Abstract要約: 本稿では,多出力ガウスプロセスに基づくスケーラブルでモジュール化されたメタラーニングモデルを提案する。
SMOGは階層的で並列なトレーニングをサポートする。 メタタスクのガウシアンプロセスは一度に適合し、その後キャッシュされ、メタタスクの数で線形スケーリングを実現する。
- 参考スコア(独自算出の注目度): 2.318371621318972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-objective optimization aims to solve problems with competing objectives, often with only black-box access to a problem and a limited budget of measurements. In many applications, historical data from related optimization tasks is available, creating an opportunity for meta-learning to accelerate the optimization. Bayesian optimization, as a promising technique for black-box optimization, has been extended to meta-learning and multi-objective optimization independently, but methods that simultaneously address both settings - meta-learned priors for multi-objective Bayesian optimization - remain largely unexplored. We propose SMOG, a scalable and modular meta-learning model based on a multi-output Gaussian process that explicitly learns correlations between objectives. SMOG builds a structured joint Gaussian process prior across meta- and target tasks and, after conditioning on metadata, yields a closed-form target-task prior augmented by a flexible residual multi-output kernel. This construction propagates metadata uncertainty into the target surrogate in a principled way. SMOG supports hierarchical, parallel training: meta-task Gaussian processes are fit once and then cached, achieving linear scaling with the number of meta-tasks. The resulting surrogate integrates seamlessly with standard multi-objective Bayesian optimization acquisition functions.
- Abstract(参考訳): 多目的最適化は、しばしば問題へのブラックボックスアクセスと限られた測定予算で競合する目的の問題を解くことを目的としている。
多くのアプリケーションでは、関連する最適化タスクからの履歴データが利用可能であり、メタ学習が最適化を加速する機会を生み出している。
ブラックボックス最適化の有望なテクニックであるベイジアン最適化は、メタラーニングとマルチオブジェクト最適化に独立して拡張されている。
本稿では,多出力ガウスプロセスに基づくスケーラブルでモジュール化されたメタラーニングモデルであるSMOGを提案する。
SMOGは、メタタスクとターゲットタスクに先立って構造化された合同ガウスプロセスを構築し、メタデータを条件付けした後、フレキシブルな残留マルチアウトプットカーネルによって強化されたクローズドフォームターゲットタスクを生成する。
この構造は、メタデータの不確実性を原則的にターゲットサロゲートに伝達する。
SMOGは階層的で並列なトレーニングをサポートする。 メタタスクのガウシアンプロセスは一度に適合し、その後キャッシュされ、メタタスクの数で線形スケーリングを実現する。
結果として得られるサロゲートは、標準的な多目的ベイズ最適化獲得関数とシームレスに統合される。
関連論文リスト
- Task-free Adaptive Meta Black-box Optimization [55.461814601130044]
対象タスクからのみ最適化データを用いてオンラインパラメータ適応を行うアダプティブメタブラックボックス最適化モデル(ABOM)を提案する。
メタトレーニングと最適化フェーズを分離する従来のメタBBOフレームワークとは異なり、ABOMはクローズドループパラメータ学習機構を導入し、パラメータ化された進化演算子を継続的に自己更新する。
このパラダイムシフトはゼロショット最適化を可能にする: 合成BBOベンチマークにおけるABOMの競合性能と、手作りのトレーニングタスクを伴わない現実的な無人飛行路計画問題。
論文 参考訳(メタデータ) (2026-01-29T09:54:10Z) - Pareto-Grid-Guided Large Language Models for Fast and High-Quality Heuristics Design in Multi-Objective Combinatorial Optimization [8.950269044886621]
多目的最適化問題(MOCOP)は、矛盾する目的の同時最適化を必要とする実用的応用においてしばしば発生する。
LLM(MPaGE)のPareto-Grid-Guided EvolutionによるMOCOPのマルチヒューリスティックスについて紹介する。
MPaGE は LLM を用いて、変異の間、意味的に異なる論理構造を優先順位付けし、多様性を促進し、集団内の冗長性を緩和する。
論文 参考訳(メタデータ) (2025-07-28T15:26:43Z) - Generalizable Heuristic Generation Through Large Language Models with Meta-Optimization [14.919482411153185]
大規模言語モデル (LLM) を用いたヒューリスティック設計が最適化問題に対処するための有望なアプローチとして登場した。
既存のアプローチは、しばしば手動で定義された進化的一般化とシングルタスクのトレーニングスキームに依存している。
本稿では,メタ学習のレベルで機能する新しいフレームワークであるMeta-Optimization of Heuristics(MoH)を提案する。
論文 参考訳(メタデータ) (2025-05-27T08:26:27Z) - Clustering-based Meta Bayesian Optimization with Theoretical Guarantee [9.821653903127107]
異種および大規模メタタスクにおける重要な課題に対処するために,スケーラブルで堅牢なメタBO手法を提案する。
提案手法は,移動したメタファンクションを高均一なクラスタに効果的に分割し,幾何学に基づくサロゲートプロトタイプを学習し,オンラインフェーズにおいてメタプライアを適応的に合成する。
論文 参考訳(メタデータ) (2025-03-08T06:46:28Z) - Studying Evolutionary Solution Adaption Using a Flexibility Benchmark Based on a Metal Cutting Process [39.05320053926048]
システム柔軟性のためのバイオインスパイアされたフレームワークの観点から、異なる生産要件を最適化することを検討する。
NSGA-IIの柔軟性は,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)アクティベートあるいは非アクティベート可能な様々な可能性に対応する,アクティブな非アクティブなジェノタイプという2つの変種によって拡張される。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - On the Global Optimality of Model-Agnostic Meta-Learning [133.16370011229776]
モデル・ア・メタラーニング(MAML)は、メタラーニングを二段階最適化問題として定式化し、内部レベルが各サブタスクを、共有された事前に基づいて解決する。
学習と教師あり学習の両方においてMAMLが達成した定常点の最適性を特徴付ける。
論文 参考訳(メタデータ) (2020-06-23T17:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。