論文の概要: Offline Multi-Task Multi-Objective Data-Driven Evolutionary Algorithm with Language Surrogate Model and Implicit Q-Learning
- arxiv url: http://arxiv.org/abs/2512.15149v1
- Date: Wed, 17 Dec 2025 07:30:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.888041
- Title: Offline Multi-Task Multi-Objective Data-Driven Evolutionary Algorithm with Language Surrogate Model and Implicit Q-Learning
- Title(参考訳): 言語サロゲートモデルと暗黙Q学習を用いたオフライン多目的データ駆動進化アルゴリズム
- Authors: Xian-Rong Zhang, Yue-Jiao Gong, Zeyuan Ma, Jun Zhang,
- Abstract要約: プラグ・アンド・プレイ・サロゲート・モデリング手法としてQ-MetaSurを提案する。
マルチタスク・マルチオブジェクト最適化(MTMOO)をオフライン環境で検討する。
また,Q-MetaSurは,主観的近似精度において,主観的サロゲートベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 16.52427396199173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-driven evolutionary algorithms has shown surprising results in addressing expensive optimization problems through robust surrogate modeling. Though promising, existing surrogate modeling schemes may encounter limitations in complex optimization problems with many sub-objectives, which rely on repeated and tedious approximation. To address such technical gap, we propose Q-MetaSur as a plug-and-play surrogate modeling scheme capable of providing unified and generalized surrogate learning. Specifically, we consider multi-task-multi-objective optimization~(MTMOO) in offline setting. Several key designs are proposed: 1) we transform objective approximation into sequence-to-sequence modeling where MTMOO problem can be represented by tenxual tokenization. To operate under such auto-regressive modeling, we introduce a Large Language Model-based surrogate model that first encodes a MTMOO instance and then decodes objective values of unseen decision variables. To ensure stability in training the proposed model, we propose a two-stage offline training strategy that operates as a synergy of supervised tuning and RL fine-tuning, which first exploits offline dataset to fit existing knowledge and then leverages RL to enhance model's generalization performance. Extensive empirical results on the CEC2019 benchmark demonstrate that Q-MetaSur not only outperforms representative surrogate baselines in objective approximation accuracy, but also helps underlying evolutionary algorithms achieve both desired optimization convergence and improved pareto optimality.
- Abstract(参考訳): データ駆動の進化的アルゴリズムは、ロバスト・サロゲート・モデリングによる高価な最適化問題に対処する驚くべき結果を示している。
有望ではあるが、既存の代理モデリングスキームは、繰り返しかつ退屈な近似に依存する多くのサブオブジェクトを持つ複雑な最適化問題において制限に直面する可能性がある。
このような技術的ギャップに対処するために,我々は,統一的で一般化された代理学習を提供するためのプラグアンドプレイ・サロゲート・モデリングスキームとしてQ-MetaSurを提案する。
具体的には、マルチタスク・マルチオブジェクト最適化~(MTMOO)をオフライン環境で検討する。
1) 客観的近似を列列列間モデリングに変換し, MTMOO問題をテンキシャルトークン化で表現する。
本稿では,MTMOO インスタンスをまずエンコードし,次に未確認な決定変数の目的値をデコードする,Large Language Model ベースの代理モデルを提案する。
提案するモデルのトレーニングにおける安定性を確保するため,教師付きチューニングとRLファインチューニングのシナジーとして機能する2段階のオフライントレーニング戦略を提案する。
CEC2019ベンチマークの広範な実験結果によると、Q-MetaSurは、目的近似精度において代表サロゲート基底線を上回るだけでなく、基礎となる進化的アルゴリズムが望まれる最適化収束と改善されたパリト最適性の両方を達成するのに役立つ。
関連論文リスト
- Merge and Guide: Unifying Model Merging and Guided Decoding for Controllable Multi-Objective Generation [49.98025799046136]
Merge-And-GuidEは、ガイド付きデコーディングにモデルマージを利用する2段階のフレームワークである。
ステージ1では、MAGEはガイダンスとベースモデルの互換性の問題を解決する。
ステージ2では、明示的で暗黙的な値モデルを統一的なガイダンスプロキシにマージします。
論文 参考訳(メタデータ) (2025-10-04T11:10:07Z) - BERT4beam: Large AI Model Enabled Generalized Beamforming Optimization [77.17508487745026]
本稿では,ビームフォーミング最適化のための大規模AIモデルについて検討する。
本稿では、BERT4エンコーダと呼ばれる変換器(BERT)からの双方向エンコーダ表現に基づく新しいフレームワークを提案する。
本フレームワークをベースとして,単一タスクとマルチタスクのビームフォーミング最適化のためのBERTベースの2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-09-14T02:49:29Z) - Leveraging Importance Sampling to Detach Alignment Modules from Large Language Models [48.15777554876988]
伝統的なアライメント手法では、しばしば大きな事前訓練されたモデルを再訓練する必要がある。
本稿では,アライメント処理を重要サンプリングの一種として形式化する新しいtextitResidual Alignment Model (textitRAM) を提案する。
本稿では,トークンレベルの復号化を反復的に行う再サンプリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T08:53:02Z) - Solver-Informed RL: Grounding Large Language Models for Authentic Optimization Modeling [3.253908111652627]
大型言語モデル(LLM)は、しばしば幻覚に対する形式的正当で使用可能なモデルを生成するのに苦労する。
本稿では,検証リワードを用いた強化学習を用いた最適化モデルのためのLLMの信頼性を向上する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-17T02:32:03Z) - Large Language Model as Meta-Surrogate for Data-Driven Many-Task Optimization: A Proof-of-Principle Study [11.452011929848844]
本研究では,マルチタスク最適化を支援するメタサロゲートフレームワークを提案する。
問題群に適合するメタデータを持つ普遍モデルを定義することにより、多タスクフィットネス予測のための統一的なフレームワークを定式化する。
我々のフレームワークは、双対レベルの知識伝達 -- 代理レベルと個別レベルの両方 -- をサポートし、最適化の効率性と堅牢性を高めます。
論文 参考訳(メタデータ) (2025-03-11T11:13:11Z) - Merging Models on the Fly Without Retraining: A Sequential Approach to Scalable Continual Model Merging [75.93960998357812]
ディープモデルマージ(Deep Modelmerging)は、複数の微調整モデルを組み合わせて、さまざまなタスクやドメインにまたがる能力を活用する、新たな研究方向を示すものだ。
現在のモデルマージ技術は、全ての利用可能なモデルを同時にマージすることに集中しており、重量行列に基づく手法が主要なアプローチである。
本稿では,モデルを逐次処理するトレーニングフリーなプロジェクションベース連続マージ手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T13:17:24Z) - It's Morphing Time: Unleashing the Potential of Multiple LLMs via Multi-objective Optimization [16.54335356612006]
モデルマージの目標は、複数のモデルを組み合わせることであり、それぞれが異なるタスクで優れており、個々のソースモデルよりも優れた1つのモデルにまとめることである。
既存の方法は人間の知識や直観に大きく依存している。
限られた評価において、優れたモデルマージ構成を得るのは難しいです。
論文 参考訳(メタデータ) (2024-06-29T16:34:23Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。