論文の概要: LLM-Assisted Automatic Dispatching Rule Design for Dynamic Flexible Assembly Flow Shop Scheduling
- arxiv url: http://arxiv.org/abs/2601.15738v1
- Date: Thu, 22 Jan 2026 08:06:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.538593
- Title: LLM-Assisted Automatic Dispatching Rule Design for Dynamic Flexible Assembly Flow Shop Scheduling
- Title(参考訳): 動的フレキシブルアセンブリフローショップスケジューリングのためのLLM支援自動分散ルール設計
- Authors: Junhao Qiu, Haoyang Zhuang, Fei Liu, Jianjun Liu, Qingfu Zhang,
- Abstract要約: 本研究では,LLM支援動的ルール設計フレームワーク(LLM4DRD)を開発し,スケジューリング機能に適合したオンラインスケジューリングルールを自動的に進化させる。
LLM4DRDの平均威力は、訓練と試験に使用される20の実践例において、最先端の手法よりも3.17-12.39%高い。
- 参考スコア(独自算出の注目度): 14.08915850565659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic multi-product delivery environments demand rapid coordination of part completion and product-level kitting within hybrid processing and assembly systems to satisfy strict hierarchical supply constraints. The flexible assembly flow shop scheduling problem formally defines dependencies for multi-stage kitting, yet dynamic variants make designing integrated scheduling rules under multi-level time coupling highly challenging. Existing automated heuristic design methods, particularly genetic programming constrained to fixed terminal symbol sets, struggle to capture and leverage dynamic uncertainties and hierarchical dependency information under transient decision states. This study develops an LLM-assisted Dynamic Rule Design framework (LLM4DRD) that automatically evolves integrated online scheduling rules adapted to scheduling features. Firstly, multi-stage processing and assembly supply decisions are transformed into feasible directed edge orderings based on heterogeneous graph. Then, an elite knowledge guided initialization embeds advanced design expertise into initial rules to enhance initial quality. Additionally, a dual-expert mechanism is introduced in which LLM-A evolutionary code to generate candidate rules and LLM-S conducts scheduling evaluation, while dynamic feature-fitting rule evolution combined with hybrid evaluation enables continuous improvement and extracts adaptive rules with strong generalization capability. A series of experiments are conducted to validate the effectiveness of the method. The average tardiness of LLM4DRD is 3.17-12.39% higher than state-of-the-art methods in 20 practical instances used for training and testing, respectively. In 24 scenarios with different resource configurations, order loads, and disturbance levels totaling 480 instances, it achieves 11.10% higher performance than the second best competitor, exhibiting excellent robustness.
- Abstract(参考訳): 動的多製品デリバリ環境は、厳密な階層的な供給制約を満たすために、部品の完成と製品レベルのキットをハイブリッド処理および組立システム内で迅速に調整する必要がある。
フレキシブルな組立フローショップスケジューリング問題は、多段階のキットの依存関係を正式に定義するが、動的変種は多段階の時間結合の下で統合的なスケジューリングルールを設計することを非常に困難にしている。
既存の自動ヒューリスティック設計手法、特に固定終端記号集合に制約された遺伝的プログラミングは、過渡的決定状態の下で動的不確実性や階層的依存情報を捕捉し活用するのに苦労する。
本研究では,LLM支援動的ルール設計フレームワーク(LLM4DRD)を開発し,スケジューリング機能に適合したオンラインスケジューリングルールを自動的に進化させる。
第一に、多段階処理および組立供給決定は、異種グラフに基づく有向エッジ順序付けに変換される。
そして、エリートな知識を導いた初期化は、高度な設計の専門知識を初期ルールに組み込んで初期品質を高める。
さらに、LLM-A進化コードが候補ルールを生成し、LLM-Sがスケジューリング評価を行うデュアルエキスパート機構を導入し、動的特徴適合ルール進化とハイブリッド評価を組み合わせることで、継続的な改善を可能にし、強力な一般化能力を持つ適応ルールを抽出する。
本手法の有効性を検証するために, 一連の実験を行った。
LLM4DRDの平均威力は、訓練と試験に使用される20の実践例において、最先端の手法よりも3.17-12.39%高い。
異なるリソース構成、オーダロード、合計480インスタンスの障害レベルを持つ24のシナリオでは、第2の競争相手よりも11.10%高いパフォーマンスを実現し、優れた堅牢性を示している。
関連論文リスト
- LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - DynaSwarm: Dynamically Graph Structure Selection for LLM-based Multi-agent System [0.276240219662896]
DynaSwarmはマルチエージェントシステムを強化する動的フレームワークである。
グラフ構造を最適化するためにアクター-批判的強化学習機構を使用する。
また、動的グラフセレクタを持ち、各入力サンプルに対して最適なグラフ構造を適応的に選択する。
論文 参考訳(メタデータ) (2025-07-31T05:52:30Z) - Autonomous Control Leveraging LLMs: An Agentic Framework for Next-Generation Industrial Automation [0.0]
本稿では,大規模言語モデル(LLM)を個別のフォールトリカバリ計画と継続的プロセス制御の両方に活用する統合エージェントフレームワークを提案する。
その結果、構造化されたフィードバックとモジュラーエージェントにより、LLMは高レベルな記号計画と低レベルな連続制御を統一できることを示した。
論文 参考訳(メタデータ) (2025-07-03T11:20:22Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - Leveraging Importance Sampling to Detach Alignment Modules from Large Language Models [48.15777554876988]
伝統的なアライメント手法では、しばしば大きな事前訓練されたモデルを再訓練する必要がある。
本稿では,アライメント処理を重要サンプリングの一種として形式化する新しいtextitResidual Alignment Model (textitRAM) を提案する。
本稿では,トークンレベルの復号化を反復的に行う再サンプリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T08:53:02Z) - MAS-ZERO: Designing Multi-Agent Systems with Zero Supervision [76.42361936804313]
自動MAS設計のための自己進化型推論時間フレームワークMAS-ZEROを紹介する。
MAS-ZEROはメタレベルの設計を採用し、各問題インスタンスに適したMAS構成を反復的に生成し、評価し、洗練する。
論文 参考訳(メタデータ) (2025-05-21T00:56:09Z) - CALM: Co-evolution of Algorithms and Language Model for Automatic Heuristic Design [11.639825726501659]
大規模言語モデル(LLM)は、従来のコストのごく一部で自律的にハイパフォーマンスを発見できる。
本稿では,言語指導と数値指導を組み合わせたハイブリッドフレームワークを提案する。
本手法は,様々な最適化タスクにおいて,SOTA(State-of-the-art)ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-18T07:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。