論文の概要: Scalable Multi-agent Reinforcement Learning for Factory-wide Dynamic Scheduling
- arxiv url: http://arxiv.org/abs/2409.13571v1
- Date: Fri, 20 Sep 2024 15:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 06:30:58.055718
- Title: Scalable Multi-agent Reinforcement Learning for Factory-wide Dynamic Scheduling
- Title(参考訳): ファクトリワイド動的スケジューリングのためのスケーラブルなマルチエージェント強化学習
- Authors: Jaeyeon Jang, Diego Klabjan, Han Liu, Nital S. Patel, Xiuqi Li, Balakrishnan Ananthanarayanan, Husam Dauod, Tzung-Han Juang,
- Abstract要約: 本稿では,MARL(Lead-follower multi-agent RL)の概念を適用して,望ましいコーディネーションを求める。
本稿では,エージェントのエラーによる生産能力の壊滅的損失を防止するためのルールベース変換アルゴリズムを提案する。
全体として、提案したMARLベースのスケジューリングモデルは、リアルタイムスケジューリング問題に対する有望な解決策を提供する。
- 参考スコア(独自算出の注目度): 14.947820507112136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time dynamic scheduling is a crucial but notoriously challenging task in modern manufacturing processes due to its high decision complexity. Recently, reinforcement learning (RL) has been gaining attention as an impactful technique to handle this challenge. However, classical RL methods typically rely on human-made dispatching rules, which are not suitable for large-scale factory-wide scheduling. To bridge this gap, this paper applies a leader-follower multi-agent RL (MARL) concept to obtain desired coordination after decomposing the scheduling problem into a set of sub-problems that are handled by each individual agent for scalability. We further strengthen the procedure by proposing a rule-based conversion algorithm to prevent catastrophic loss of production capacity due to an agent's error. Our experimental results demonstrate that the proposed model outperforms the state-of-the-art deep RL-based scheduling models in various aspects. Additionally, the proposed model provides the most robust scheduling performance to demand changes. Overall, the proposed MARL-based scheduling model presents a promising solution to the real-time scheduling problem, with potential applications in various manufacturing industries.
- Abstract(参考訳): リアルタイムな動的スケジューリングは、意思決定の複雑さのため、現代の製造プロセスにおいて極めて難しい課題である。
近年、強化学習(RL)がこの課題に対処するための影響のある手法として注目されている。
しかし、古典的なRL法は通常、大規模な工場規模のスケジューリングには適さない人為的なディスパッチ規則に依存している。
このギャップを埋めるために,本論文では,スケジューリング問題を各エージェントが処理するサブプロブレムの集合に分解した後,所望のコーディネーションを得るためにリーダ・フォロワマルチエージェントRL(MARL)の概念を適用した。
さらに、エージェントのエラーによる生産能力の壊滅的な損失を防止するためにルールベースの変換アルゴリズムを提案することで、手順をさらに強化する。
実験の結果,提案手法は様々な面において,最先端の深部RLに基づくスケジューリングモデルよりも優れていた。
さらに、提案したモデルは、要求の変化に対する最も堅牢なスケジューリング性能を提供する。
全体として、提案したMARLベースのスケジューリングモデルでは、リアルタイムスケジューリング問題に対する有望な解決策が提示され、様々な製造業における潜在的な応用が期待できる。
関連論文リスト
- Optimizing Job Shop Scheduling in the Furniture Industry: A Reinforcement Learning Approach Considering Machine Setup, Batch Variability, and Intralogistics [0.0]
本稿では,家具産業におけるDeep Reinforcement Learningの活用の可能性について考察する。
スケジューリングの精度と効率を向上させるために,より詳細な情報を提供するモデルの概念を提案する。
このモデルは、ジョブボリューム、バッファ管理、輸送時間、マシンセットアップ時間を含む、JSSPへの従来のアプローチを拡張している。
論文 参考訳(メタデータ) (2024-09-18T09:12:40Z) - Joint Demonstration and Preference Learning Improves Policy Alignment with Human Feedback [58.049113055986375]
我々は、報酬モデルとポリシーをトレーニングするために、AIHF(Alignment with Integrated Human Feedback)と呼ばれる単一ステージアプローチを開発する。
提案した手法は、一般的なアライメントアルゴリズムに容易に還元し、活用できる、効率的なアルゴリズムの集合を認めている。
本研究では,LLMにおけるアライメント問題と,MuJoCoにおけるロボット制御問題を含む広範な実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-06-11T01:20:53Z) - Learning-enabled Flexible Job-shop Scheduling for Scalable Smart
Manufacturing [11.509669981978874]
スマートマニュファクチャリングシステムでは、生産性を最大化するためのソリューションを最適化するために、輸送制約付きフレキシブルなジョブショップスケジューリングが不可欠である。
近年, 深部強化学習(DRL)に基づくFJSPT法の開発が, 大規模一般化の課題に直面している。
Heterogeneous Graph Scheduler (HGS) と呼ばれる新しいグラフベースのDRL法を導入する。
論文 参考訳(メタデータ) (2024-02-14T06:49:23Z) - Solving the flexible job-shop scheduling problem through an enhanced
deep reinforcement learning approach [1.565361244756411]
本稿では、特に大規模インスタンスにおいて、フレキシブルなジョブショップスケジューリング問題を解決するための新しいDRL法を提案する。
このアプローチは、問題をより情報的なグラフ表現にヘテロジニアスグラフニューラルネットワークを使用することに基づいている。
論文 参考訳(メタデータ) (2023-10-24T10:35:08Z) - Flexible Job Shop Scheduling via Dual Attention Network Based
Reinforcement Learning [73.19312285906891]
フレキシブルなジョブショップスケジューリング問題(FJSP)では、複数のマシンで操作を処理でき、操作とマシンの間の複雑な関係が生じる。
近年, 深層強化学習(DRL)を用いて, FJSP解決のための優先派遣規則(PDR)を学習している。
本稿では,Deep機能抽出のための自己注意モデルと,スケーラブルな意思決定のためのDRLの利点を生かした,エンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T01:35:48Z) - A Hierarchical Temporal Planning-Based Approach for Dynamic Hoist
Scheduling Problems [11.66506213335498]
ホイストスケジューリングは、自律デバイスの開発で産業応用の電気めっきのボトルネックとなっている。
適応型PDDLの形で新しい時間計画問題としてホイストスケジューリング問題を定式化する。
この問題に対するソリューションメソッドの評価に使用できる実生活ベンチマークインスタンスのコレクションを提供する。
論文 参考訳(メタデータ) (2022-12-11T05:30:44Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Reinforcement Learning as One Big Sequence Modeling Problem [84.84564880157149]
強化学習(Reinforcement Learning, RL)は、通常、単一ステップポリシーや単一ステップモデルの推定に関係している。
我々は、RLをシーケンスモデリング問題とみなし、高い報酬のシーケンスにつながる一連のアクションを予測することを目標としている。
論文 参考訳(メタデータ) (2021-06-03T17:58:51Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。