論文の概要: In-Context Multi-Objective Optimization
- arxiv url: http://arxiv.org/abs/2512.11114v1
- Date: Thu, 11 Dec 2025 20:56:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.572219
- Title: In-Context Multi-Objective Optimization
- Title(参考訳): In-Context Multi-Objective Optimization
- Authors: Xinyu Zhang, Conor Hassan, Julien Martinelli, Daolang Huang, Samuel Kaski,
- Abstract要約: TAMOは、マルチオブジェクトのブラックボックス最適化のための、完全に償却され、普遍的なポリシーである。
我々は,多目的ブラックボックス最適化のための完全償却ユニバーサルポリシーであるTAMOを提案する。
- 参考スコア(独自算出の注目度): 24.738414334054358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Balancing competing objectives is omnipresent across disciplines, from drug design to autonomous systems. Multi-objective Bayesian optimization is a promising solution for such expensive, black-box problems: it fits probabilistic surrogates and selects new designs via an acquisition function that balances exploration and exploitation. In practice, it requires tailored choices of surrogate and acquisition that rarely transfer to the next problem, is myopic when multi-step planning is often required, and adds refitting overhead, particularly in parallel or time-sensitive loops. We present TAMO, a fully amortized, universal policy for multi-objective black-box optimization. TAMO uses a transformer architecture that operates across varying input and objective dimensions, enabling pretraining on diverse corpora and transfer to new problems without retraining: at test time, the pretrained model proposes the next design with a single forward pass. We pretrain the policy with reinforcement learning to maximize cumulative hypervolume improvement over full trajectories, conditioning on the entire query history to approximate the Pareto frontier. Across synthetic benchmarks and real tasks, TAMO produces fast proposals, reducing proposal time by 50-1000x versus alternatives while matching or improving Pareto quality under tight evaluation budgets. These results show that transformers can perform multi-objective optimization entirely in-context, eliminating per-task surrogate fitting and acquisition engineering, and open a path to foundation-style, plug-and-play optimizers for scientific discovery workflows.
- Abstract(参考訳): 競合する目標のバランスは、ドラッグデザインから自律システムまで、あらゆる分野に共通している。
多目的ベイズ最適化は、確率的サロゲートに適合し、探索と利用のバランスをとる獲得関数を介して新しい設計を選択するという、高価なブラックボックス問題に対する有望な解決策である。
実際には、サロゲートと取得の調整された選択が必要であり、これは次の問題にほとんど移行せず、多段階計画が頻繁に必要となる場合、ミオピックであり、特に並列または時間に敏感なループにおいて、調整オーバーヘッドを追加する。
我々は,多目的ブラックボックス最適化のための完全償却ユニバーサルポリシーであるTAMOを提案する。
TAMOは、様々な入力次元と目的次元をまたいだトランスフォーマーアーキテクチャを使用しており、様々なコーパスを事前訓練し、再訓練せずに新しい問題に移行することができる。
本研究では,全軌道上の累積超体積改善を最大化するために,強化学習によるポリシを事前訓練し,クエリ履歴全体の条件付けを行い,Paretoフロンティアを近似する。
合成ベンチマークと実際のタスク全体で、TAMOは高速な提案を生成し、提案時間を50-1000倍に削減し、パレート品質を厳格な評価予算の下でマッチングまたは改善する。
これらの結果から,トランスフォーマーはマルチオブジェクト最適化を完全にコンテキスト内で実行し,タスクごとのサロゲートフィッティングと取得エンジニアリングを排除し,科学的な発見ワークフローのための基礎スタイルのプラグアンドプレイオプティマイザへの道を開くことができることがわかった。
関連論文リスト
- Flow Density Control: Generative Optimization Beyond Entropy-Regularized Fine-Tuning [59.11663802446183]
フローおよび拡散生成モデルは、事前情報を保持しながらタスク固有の目的を最適化するために適応することができる。
本研究では,フロー密度制御(FDC)を導入し,複雑な問題をより単純な微調整タスクの特定のシーケンスに還元する。
我々は,近年のミラーフローの理解を活用して,現実的な仮定の下で提案されたスキームの収束保証を導出する。
論文 参考訳(メタデータ) (2025-11-27T17:19:01Z) - Parametric Expensive Multi-Objective Optimization via Generative Solution Modeling [34.344228998247225]
本稿では,この逆モデルについて,獲得駆動探索モデルと生成モデルとの交互に学習した最初のパラメトリック多目的ベイズモデルを提案する。
我々はタスク対応ガウス過程を通じてタスク間シナジーを活用することにより、より高速な収束を理論的に正当化する。
論文 参考訳(メタデータ) (2025-11-12T15:13:27Z) - A Unified Multi-Task Learning Framework for Generative Auto-Bidding with Validation-Aligned Optimization [51.27959658504722]
マルチタスク学習は、これらのタスクを共有表現を通じて共同でトレーニングするための、原則化されたフレームワークを提供する。
既存のマルチタスク最適化戦略は、主にトレーニングダイナミクスによって導かれ、不安定な入札環境ではよく一般化される。
本稿では,タスク毎のトレーニング勾配と保留有効度勾配のアライメントに基づいてタスク重みを適応的に割り当てる,バリデーション適応型マルチタスク最適化(VAMO)を提案する。
論文 参考訳(メタデータ) (2025-10-09T03:59:51Z) - FoMEMO: Towards Foundation Models for Expensive Multi-objective Optimization [19.69959362934787]
本稿では,FoMEMOと呼ばれる新しいパラダイムを提案する。
実世界で広範囲にわたるドメイン実験にアクセスするのではなく、数億の合成データの多様なセットで基礎モデルを事前訓練することで、未知の問題への適応性が向上することを示した。
論文 参考訳(メタデータ) (2025-09-03T12:00:24Z) - Preference-Guided Diffusion for Multi-Objective Offline Optimization [64.08326521234228]
オフライン多目的最適化のための優先誘導拡散モデルを提案する。
我々の指導は、ある設計が他の設計を支配する確率を予測するために訓練された選好モデルである。
本結果は,多種多様な高品質な解を生成する上での分類器誘導拡散モデルの有効性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-21T16:49:38Z) - Continual Optimization with Symmetry Teleportation for Multi-Task Learning [73.28772872740744]
マルチタスク学習(MTL)は、1つのモデルを用いて複数のタスクの同時学習を可能にする。
シンメトリ・テレポーテーション(COST)を用いた連続最適化に基づく新しい手法を提案する。
COSTは、競合の勾配を減らすために、損失ランドスケープに別の損失等価点を求める。
論文 参考訳(メタデータ) (2025-03-06T02:58:09Z) - Multi-Fidelity Bayesian Optimization With Across-Task Transferable Max-Value Entropy Search [36.14499894307206]
本稿では,現在のタスクに関する情報を取得する必要性と,将来的なタスクに伝達可能な情報を集めることのバランスをとる新しい情報理論獲得機能を提案する。
提案手法は,十分なタスク数を処理すると,最適化効率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-14T17:00:01Z) - MORL-Prompt: An Empirical Analysis of Multi-Objective Reinforcement Learning for Discrete Prompt Optimization [45.410121761165634]
RLに基づく手法は、ターゲット言語モデルに入力されると、ユーザ特定報酬関数の集合を最大化するプロンプトを探索するために用いられる。
現在の技術は報酬関数の平均値の最大化に重点を置いており、必ずしも報酬間の均衡を達成するプロンプトに繋がるとは限らない。
論文 参考訳(メタデータ) (2024-02-18T21:25:09Z) - Studying Evolutionary Solution Adaption Using a Flexibility Benchmark Based on a Metal Cutting Process [39.05320053926048]
システム柔軟性のためのバイオインスパイアされたフレームワークの観点から、異なる生産要件を最適化することを検討する。
NSGA-IIの柔軟性は,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)アクティベートあるいは非アクティベート可能な様々な可能性に対応する,アクティブな非アクティブなジェノタイプという2つの変種によって拡張される。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。