論文の概要: LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization
- arxiv url: http://arxiv.org/abs/2508.11871v1
- Date: Sat, 16 Aug 2025 02:00:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.428386
- Title: LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization
- Title(参考訳): LLM4CMO:制約付き多目的最適化のための大言語モデル支援アルゴリズム設計
- Authors: Zhen-Song Chen, Hong-Wei Ding, Xian-Jia Wang, Witold Pedrycz,
- Abstract要約: 大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
- 参考スコア(独自算出の注目度): 54.83882149157548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constrained multi-objective optimization problems (CMOPs) frequently arise in real-world applications where multiple conflicting objectives must be optimized under complex constraints. Existing dual-population two-stage algorithms have shown promise by leveraging infeasible solutions to improve solution quality. However, designing high-performing constrained multi-objective evolutionary algorithms (CMOEAs) remains a challenging task due to the intricacy of algorithmic components. Meanwhile, large language models (LLMs) offer new opportunities for assisting with algorithm design; however, their effective integration into such tasks remains underexplored. To address this gap, we propose LLM4CMO, a novel CMOEA based on a dual-population, two-stage framework. In Stage 1, the algorithm identifies both the constrained Pareto front (CPF) and the unconstrained Pareto front (UPF). In Stage 2, it performs targeted optimization using a combination of hybrid operators (HOps), an epsilon-based constraint-handling method, and a classification-based UPF-CPF relationship strategy, along with a dynamic resource allocation (DRA) mechanism. To reduce design complexity, the core modules, including HOps, epsilon decay function, and DRA, are decoupled and designed through prompt template engineering and LLM-human interaction. Experimental results on six benchmark test suites and ten real-world CMOPs demonstrate that LLM4CMO outperforms eleven state-of-the-art baseline algorithms. Ablation studies further validate the effectiveness of the LLM-aided modular design. These findings offer preliminary evidence that LLMs can serve as efficient co-designers in the development of complex evolutionary optimization algorithms. The code associated with this article is available at https://anonymous.4open.science/r/LLM4CMO971.
- Abstract(参考訳): 制約付き多目的最適化問題(CMOP)は、複雑な制約の下で複数の競合する目的を最適化しなければならない実世界のアプリケーションでしばしば発生する。
既存の2段階のアルゴリズムは、実現不可能なソリューションを活用して、ソリューションの品質を向上させることで、将来性を示している。
しかし,高性能制約付き多目的進化アルゴリズム (CMOEAs) の設計は,アルゴリズムコンポーネントの複雑さのため,依然として困難な課題である。
一方、大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供するが、そのようなタスクへの効果的な統合は未検討のままである。
このギャップに対処するため,デュアル人口2段階フレームワークに基づく新しいCMOEA LLM4CMOを提案する。
ステージ1では、アルゴリズムは制約されたパレートフロント(CPF)と制約のないパレートフロント(UPF)の両方を識別する。
ステージ2では、動的リソース割り当て(DRA)機構とともに、ハイブリッド演算子(HOps)、エプシロンベースの制約処理方法、および分類ベースのUPF-CPF関係戦略の組み合わせにより、ターゲット最適化を行う。
設計の複雑さを軽減するため、HOps、エプシロン崩壊関数、DRAを含むコアモジュールは分離され、プロンプトテンプレートエンジニアリングとLLM-ヒューマンインタラクションによって設計される。
6つのベンチマークテストスイートと10の実世界のCMOPの実験結果から、LLM4CMOは11の最先端のベースラインアルゴリズムより優れていることが示された。
アブレーション研究は、LLM支援モジュール設計の有効性をさらに検証した。
これらの発見は、LLMが複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として役立つという予備的な証拠を提供する。
この記事に関連するコードはhttps://anonymous.4open.science/r/LLM4CMO971で公開されている。
関連論文リスト
- Pareto Multi-Objective Alignment for Language Models [7.9051473654430655]
大規模言語モデル(LLM)は、複数の、しばしば矛盾する、目的の慎重なバランスを必要とする現実世界のアプリケーションに、ますます多くデプロイされている。
LLMにおける多目的アライメント(MOA)を明示的に設計するアルゴリズムを提案する。
PAMAは、マルチオブジェクトRLHFをクローズドフォームソリューションで凸最適化に変換し、スケーラビリティを大幅に向上させる。
論文 参考訳(メタデータ) (2025-08-11T08:54:14Z) - Large Language Models for Design Structure Matrix Optimization [4.513609458468522]
複雑なエンジニアリングシステムでは、設計構造行列(DSM)を用いてコンポーネントや開発活動間の相互依存性をモデル化し分析することが多い。
フィードバックループを最小限に抑え、モジュール性やプロセス効率を向上させるためにDSM内の要素を再編成することは、エンジニアリング設計と運用において困難な最適化問題となっている。
本研究では, 大規模言語モデル (LLM) が, 高度な推論や文脈理解にその能力を活用することで, そうしたCO問題の解決を支援する可能性について検討する。
論文 参考訳(メタデータ) (2025-06-11T13:53:35Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.082897040940447]
大規模言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において強力な能力を示している。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は、よく使われる進化的手法(EVO)を採用し、LLM演算子の出力忠実度を厳格に評価する包括的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - A Simple Evolutionary Algorithm for Multi-modal Multi-objective
Optimization [0.0]
マルチモーダル・多目的最適化問題(MMOP)を解くための定常進化アルゴリズムを提案する。
本報告では,1000関数評価の低計算予算を用いて,様々なテストスイートから得られた21個のMMOPの性能について報告する。
論文 参考訳(メタデータ) (2022-01-18T03:31:11Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z) - Decomposition in Decision and Objective Space for Multi-Modal
Multi-Objective Optimization [15.681236469530397]
多モード多目的最適化問題(MMMOP)はパレート最適集合内に複数の部分集合を持つ。
一般的な多目的進化的アルゴリズムは、複数の解部分集合を探索するために純粋に設計されていないが、MMMOP向けに設計されたアルゴリズムは、目的空間における劣化した性能を示す。
これは、MMMOPに対処するためのより良いアルゴリズムの設計を動機付けている。
論文 参考訳(メタデータ) (2020-06-04T03:18:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。