論文の概要: LLM4EO: Large Language Model for Evolutionary Optimization in Flexible Job Shop Scheduling
- arxiv url: http://arxiv.org/abs/2511.16485v1
- Date: Thu, 20 Nov 2025 15:56:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.711568
- Title: LLM4EO: Large Language Model for Evolutionary Optimization in Flexible Job Shop Scheduling
- Title(参考訳): LLM4EO:柔軟なジョブショップスケジューリングにおける進化的最適化のための大規模言語モデル
- Authors: Rongjie Liao, Junhao Qiu, Xin Chen, Xiaoping Li,
- Abstract要約: この研究は、Large Language Models (LLM)を活用して進化力学を理解し、演算子レベルのメタ進化を可能にする。
提案するフレームワーク LLM4EO は,知識伝達に基づく演算子設計,進化知覚と解析,適応演算子進化の3つのコンポーネントから構成される。
- 参考スコア(独自算出の注目度): 4.782301990330074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Customized static operator design has enabled widespread application of Evolutionary Algorithms (EAs), but their search performance is transient during iterations and prone to degradation. Dynamic operators aim to address this but typically rely on predefined designs and localized parameter control during the search process, lacking adaptive optimization throughout evolution. To overcome these limitations, this work leverages Large Language Models (LLMs) to perceive evolutionary dynamics and enable operator-level meta-evolution. The proposed framework, LLMs for Evolutionary Optimization (LLM4EO), comprises three components: knowledge-transfer-based operator design, evolution perception and analysis, and adaptive operator evolution. Firstly, initialization of operators is performed by transferring the strengths of classical operators via LLMs. Then, search preferences and potential limitations of operators are analyzed by integrating fitness performance and evolutionary features, accompanied by corresponding suggestions for improvement. Upon stagnation of population evolution, gene selection priorities of operators are dynamically optimized via improvement prompting strategies. This approach achieves co-evolution of populations and operators in the search, introducing a novel paradigm for enhancing the efficiency and adaptability of EAs. Finally, a series of validations on multiple benchmark datasets of the flexible job shop scheduling problem demonstrate that LLM4EO accelerates population evolution and outperforms both mainstream evolutionary programming and traditional EAs.
- Abstract(参考訳): カスタマイズされた静的演算子設計により、進化的アルゴリズム(EA)の広範な適用が可能になったが、探索性能は反復中は過渡的であり、劣化しがちである。
動的演算子はこの問題に対処することを目的としているが、通常、事前定義された設計と探索プロセス中の局所化パラメータ制御に依存しており、進化を通して適応的な最適化を欠いている。
これらの制限を克服するために、この研究はLarge Language Models (LLM)を活用して進化力学を理解し、演算子レベルのメタ進化を可能にする。
提案する LLMs for Evolutionary Optimization (LLM4EO) は,知識伝達に基づく演算子設計,進化知覚と解析,適応演算子進化の3つのコンポーネントから構成される。
第一に、演算子の初期化は古典演算子の強みを LLM を通して転送することで行われる。
そして、適合性能と進化的特徴を統合することにより、オペレーターの探索嗜好と潜在的な制限を解析し、改善を提案する。
個体群の進化が停滞すると、オペレーターの遺伝子選択の優先順位は、改善促進戦略によって動的に最適化される。
このアプローチは,EAの効率性と適応性を高めるための新しいパラダイムを導入し,探索における人口と運用者の共進化を実現する。
最後に、フレキシブルなジョブショップスケジューリング問題の複数のベンチマークデータセットに対する一連の検証は、LLM4EOが人口の進化を加速し、主流の進化的プログラミングと伝統的なEAの両方を上回ることを示す。
関連論文リスト
- A Toolbox for Improving Evolutionary Prompt Search [19.376387158049067]
進化的プロンプト最適化はLLMの精製プロンプトの有効性を示した。
既存のアプローチには、堅牢な演算子と効率的な評価機構が欠如している。
本稿では,進化的プロンプト最適化におけるいくつかの重要な改良点を提案する。
論文 参考訳(メタデータ) (2025-11-07T10:04:41Z) - Experience-Guided Reflective Co-Evolution of Prompts and Heuristics for Automatic Algorithm Design [124.54166764570972]
組合せ最適化問題は伝統的に手作りのアルゴリズムで取り組まれている。
最近の進歩は、大規模言語モデルによる自動設計の可能性を強調している。
本稿では,自動アルゴリズム設計のためのPmpt and Heuristics (EvoPH) を用いた経験進化的リフレクティブ・ガイドを提案する。
論文 参考訳(メタデータ) (2025-09-29T09:24:09Z) - Evolutionary Generative Optimization: Towards Fully Data-Driven Evolutionary Optimization via Generative Learning [41.44929681213813]
我々は、生成学習によって強化された完全なデータ駆動型フレームワークを提案する。
EvoGOは進化的最適化プロセスを、データ準備、モデルトレーニング、人口生成の3段階に合理化している。
数値ベンチマーク、古典的な制御問題、高次元ロボットタスクの実験により、EvoGOはわずか10世代で一貫して収束することを示した。
論文 参考訳(メタデータ) (2025-08-01T07:17:57Z) - Generalizable Heuristic Generation Through Large Language Models with Meta-Optimization [14.919482411153185]
大規模言語モデル (LLM) を用いたヒューリスティック設計が最適化問題に対処するための有望なアプローチとして登場した。
既存のアプローチは、しばしば手動で定義された進化的一般化とシングルタスクのトレーニングスキームに依存している。
本稿では,メタ学習のレベルで機能する新しいフレームワークであるMeta-Optimization of Heuristics(MoH)を提案する。
論文 参考訳(メタデータ) (2025-05-27T08:26:27Z) - Improving Retrospective Language Agents via Joint Policy Gradient Optimization [57.35348425288859]
RetroActは、言語エージェントのタスク計画と自己反射進化機能を共同で最適化するフレームワークである。
模倣学習と強化学習を統合した2段階共同最適化プロセスを開発した。
RetroActはタスクのパフォーマンスと意思決定プロセスを大幅に改善しています。
論文 参考訳(メタデータ) (2025-03-03T12:54:54Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.431866560904753]
大規模言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において強力な能力を示している。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は、よく使われる進化的手法(EVO)を採用し、LLM演算子の出力忠実度を厳格に評価する包括的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - Learning Evolution via Optimization Knowledge Adaptation [50.280704114978384]
進化的アルゴリズム(EA)は、複雑なタスクの解を見つけるために、進化的演算子を通して集団を維持する。
最適化知識適応進化モデル(okaEM)を導入し,最適化能力を向上する。
okaEMは、様々な知識伝達設定におけるパフォーマンス向上のために、事前知識を活用する。
自然選択と遺伝子組換えの原理をエミュレートすることができる。
論文 参考訳(メタデータ) (2025-01-04T05:35:21Z) - Deep Insights into Automated Optimization with Large Language Models and Evolutionary Algorithms [3.833708891059351]
大きな言語モデル(LLM)と進化的アルゴリズム(EA)は、制限を克服し、最適化をより自動化するための有望な新しいアプローチを提供する。
LLMは最適化戦略の生成、洗練、解釈が可能な動的エージェントとして機能する。
EAは進化作用素を通して、複雑な解空間を効率的に探索する。
論文 参考訳(メタデータ) (2024-10-28T09:04:49Z) - Studying Evolutionary Solution Adaption Using a Flexibility Benchmark Based on a Metal Cutting Process [39.05320053926048]
システム柔軟性のためのバイオインスパイアされたフレームワークの観点から、異なる生産要件を最適化することを検討する。
NSGA-IIの柔軟性は,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)アクティベートあるいは非アクティベート可能な様々な可能性に対応する,アクティブな非アクティブなジェノタイプという2つの変種によって拡張される。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。