論文の概要: FoMEMO: Towards Foundation Models for Expensive Multi-objective Optimization
- arxiv url: http://arxiv.org/abs/2509.03244v1
- Date: Wed, 03 Sep 2025 12:00:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.508539
- Title: FoMEMO: Towards Foundation Models for Expensive Multi-objective Optimization
- Title(参考訳): FoMEMO:多目的最適化のための基礎モデルを目指して
- Authors: Yiming Yao, Fei Liu, Liang Zhao, Xi Lin, Qingfu Zhang,
- Abstract要約: 本稿では,FoMEMOと呼ばれる新しいパラダイムを提案する。
実世界で広範囲にわたるドメイン実験にアクセスするのではなく、数億の合成データの多様なセットで基礎モデルを事前訓練することで、未知の問題への適応性が向上することを示した。
- 参考スコア(独自算出の注目度): 19.69959362934787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Expensive multi-objective optimization is a prevalent and crucial concern in many real-world scenarios, where sample-efficiency is vital due to the limited evaluations to recover the true Pareto front for decision making. Existing works either involve rebuilding Gaussian process surrogates from scratch for each objective in each new problem encountered, or rely on extensive past domain experiments for pre-training deep learning models, making them hard to generalize and impractical to cope with various emerging applications in the real world. To address this issue, we propose a new paradigm named FoMEMO (Foundation Models for Expensive Multi-objective Optimization), which enables the establishment of a foundation model conditioned on any domain trajectory and user preference, and facilitates fast in-context optimization based on the predicted preference-wise aggregation posteriors. Rather than accessing extensive domain experiments in the real world, we demonstrate that pre-training the foundation model with a diverse set of hundreds of millions of synthetic data can lead to superior adaptability to unknown problems, without necessitating any subsequent model training or updates in the optimization process. We evaluate our method across a variety of synthetic benchmarks and real-word applications, and demonstrate its superior generality and competitive performance compared to existing methods.
- Abstract(参考訳): 膨大な多目的最適化は、多くの実世界のシナリオにおいて、真のParetoフロントを復元するための限られた評価のため、サンプル効率が不可欠である、重要かつ重要な問題である。
既存の作業には、遭遇した各新しい問題において、各目的のガウス過程をスクラッチから再構築することや、ディープラーニングモデルを事前訓練するための広範なドメイン実験に頼ることが含まれており、現実の様々な新興アプリケーションに対処する上で、一般化と非現実的になっている。
この問題に対処するため,FoMEMO (Foundation Models for Expensive Multi-jective Optimization) という新しいパラダイムを提案する。
実世界で広範囲にわたるドメイン実験にアクセスする代わりに、数億の合成データの多様なセットで基礎モデルを事前学習することで、その後のモデルトレーニングや最適化プロセスの更新を必要とせず、未知の問題への適応性が向上することを示した。
提案手法は, 様々なベンチマークや実単語を用いて評価し, 既存手法と比較して, 汎用性と競争性能が優れていることを示す。
関連論文リスト
- Automated Optimization Modeling through Expert-Guided Large Language Model Reasoning [43.63419208391747]
本稿では,最適化プロセスを自動化するチェーン・オブ・シント推論を通じて,専門家レベルの最適化モデリングの原則を活用する新しいフレームワークを提案する。
また、ロジスティクス領域からの新しい最適化モデリングベンチマークであるLogiORを導入し、標準化されたアノテーションに関するより複雑な問題を含む。
論文 参考訳(メタデータ) (2025-08-20T04:14:54Z) - Divergence Minimization Preference Optimization for Diffusion Model Alignment [58.651951388346525]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
その結果,DMPOで微調整した拡散モデルは,既存の手法よりも常に優れるか,一致しているかが示唆された。
DMPOは、優先順位調整のための堅牢でエレガントな経路を解き、拡散モデルにおいて実用的な性能を持つ原理的理論をブリッジする。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - Preference-Guided Diffusion for Multi-Objective Offline Optimization [64.08326521234228]
オフライン多目的最適化のための優先誘導拡散モデルを提案する。
我々の指導は、ある設計が他の設計を支配する確率を予測するために訓練された選好モデルである。
本結果は,多種多様な高品質な解を生成する上での分類器誘導拡散モデルの有効性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-21T16:49:38Z) - A Survey of Direct Preference Optimization [103.59317151002693]
LLM(Large Language Models)は、前例のない生成能力を示す。
人的価値との整合性は、有用で無害なデプロイメントを保証する上で、依然として重要です。
直接優先度最適化(DPO)は、最近、合理化された代替案として注目されている。
論文 参考訳(メタデータ) (2025-03-12T08:45:15Z) - Rewards-in-Context: Multi-objective Alignment of Foundation Models with Dynamic Preference Adjustment [46.44464839353993]
リワード・イン・コンテキスト(Rewards-in-Context, RiC)を導入する。
RiCは単一のファンデーションモデルの教師付き微調整のみを必要とし、推論時間中にユーザの好みを動的に調整する。
論文 参考訳(メタデータ) (2024-02-15T18:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。