論文の概要: Hybrid intelligence for dynamic job-shop scheduling with deep
reinforcement learning and attention mechanism
- arxiv url: http://arxiv.org/abs/2201.00548v1
- Date: Mon, 3 Jan 2022 09:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 18:40:33.971307
- Title: Hybrid intelligence for dynamic job-shop scheduling with deep
reinforcement learning and attention mechanism
- Title(参考訳): 深層強化学習と注意機構を用いた動的ジョブショップスケジューリングのためのハイブリッドインテリジェンス
- Authors: Yunhui Zeng, Zijun Liao, Yuanzhi Dai, Rong Wang, Xiu Li, Bo Yuan
- Abstract要約: 我々は、DJSPをマルコフ決定過程(MDP)として定式化し、強化学習(RL)に対処する。
本稿では,分割グラフを状態とするフレキシブルなハイブリッドフレームワークを提案する。
我々は、有名なOR-Libraryに基づく公開ベンチマークであるGymjspを紹介し、RLおよびDJSP研究コミュニティのための標準化されたオフザシェルフ施設を提供する。
- 参考スコア(独自算出の注目度): 28.28095225164155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dynamic job-shop scheduling problem (DJSP) is a class of scheduling tasks
that specifically consider the inherent uncertainties such as changing order
requirements and possible machine breakdown in realistic smart manufacturing
settings. Since traditional methods cannot dynamically generate effective
scheduling strategies in face of the disturbance of environments, we formulate
the DJSP as a Markov decision process (MDP) to be tackled by reinforcement
learning (RL). For this purpose, we propose a flexible hybrid framework that
takes disjunctive graphs as states and a set of general dispatching rules as
the action space with minimum prior domain knowledge. The attention mechanism
is used as the graph representation learning (GRL) module for the feature
extraction of states, and the double dueling deep Q-network with prioritized
replay and noisy networks (D3QPN) is employed to map each state to the most
appropriate dispatching rule. Furthermore, we present Gymjsp, a public
benchmark based on the well-known OR-Library, to provide a standardized
off-the-shelf facility for RL and DJSP research communities. Comprehensive
experiments on various DJSP instances confirm that our proposed framework is
superior to baseline algorithms with smaller makespan across all instances and
provide empirical justification for the validity of the various components in
the hybrid framework.
- Abstract(参考訳): 動的ジョブショップスケジューリング問題(dynamic job-shop scheduling problem, djsp)は、現実的なスマート製造環境での注文要求の変更や機械の故障など、本質的に不確実性を考慮したスケジューリングタスクのクラスである。
従来の手法では環境の乱れに直面して効果的なスケジューリング戦略を動的に生成できないため、DJSPをマルコフ決定過程(MDP)として定式化し、強化学習(RL)に対処する。
そこで本研究では,分割グラフを状態とするフレキシブルなハイブリッドフレームワークと,最小の事前ドメイン知識を持つアクション空間としての一般ディスパッチルールの集合を提案する。
このアテンション機構は、状態の特徴抽出のためのグラフ表現学習(GRL)モジュールとして使用され、各状態を最も適切なディスパッチルールにマッピングするために、優先リプレイとノイズネットワーク(D3QPN)を備えたダブルデュエルディープQネットワークが使用される。
さらに、有名なOR-Libraryに基づく公開ベンチマークであるGymjspを紹介し、RLおよびDJSP研究コミュニティのための標準化されたオフザシェルフ施設を提供する。
各種DJSPインスタンスの総合的な実験により,提案するフレームワークは,全インスタンスにまたがるスムスパンの少ないベースラインアルゴリズムよりも優れており,ハイブリッドフレームワークにおける各種コンポーネントの有効性を実証的に正当化できることを確認した。
関連論文リスト
- Online Frequency Scheduling by Learning Parallel Actions [5.9838600557884805]
周波数リソースは、同じサブバンド内の同時送信を許可しながら、ユーザのセットに割り当てられる必要がある。
従来の手法は、関連するすべての制約や不確実性に対処するには不十分である。
本稿では,並列決定機能を備えたQラーニングアーキテクチャであるサブバンド上でのアクションブランチに基づくスケジューラを提案する。
論文 参考訳(メタデータ) (2024-06-07T16:14:51Z) - Intelligent Hybrid Resource Allocation in MEC-assisted RAN Slicing Network [72.2456220035229]
我々は,協調型MEC支援RANスライシングシステムにおける異種サービス要求に対するSSRの最大化を目指す。
最適ハイブリッドRAポリシーをインテリジェントに学習するためのRGRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-02T01:36:13Z) - Intent-Aware DRL-Based Uplink Dynamic Scheduler for 5G-NR [30.146175299047325]
産業用インターネット・オブ・モノのユーザ機器(IIoT UE)を意図的(QoS要求品質)とランダムなトラフィック到着で支援する問題について検討する。
利用可能な通信資源のスケジューリング方法を学ぶために,DRLに基づく時間周波数リソースの集中型動的スケジューラを提案する。
論文 参考訳(メタデータ) (2024-03-27T08:57:15Z) - Learning-enabled Flexible Job-shop Scheduling for Scalable Smart
Manufacturing [11.509669981978874]
スマートマニュファクチャリングシステムでは、生産性を最大化するためのソリューションを最適化するために、輸送制約付きフレキシブルなジョブショップスケジューリングが不可欠である。
近年, 深部強化学習(DRL)に基づくFJSPT法の開発が, 大規模一般化の課題に直面している。
Heterogeneous Graph Scheduler (HGS) と呼ばれる新しいグラフベースのDRL法を導入する。
論文 参考訳(メタデータ) (2024-02-14T06:49:23Z) - On the Role of Server Momentum in Federated Learning [85.54616432098706]
a)フェデレートラーニング(FL)において未探索な大量のモーメントスキームを網羅するサーバモーメントの一般的な枠組みを提案する。
提案するフレームワークに対して厳密な収束解析を行う。
論文 参考訳(メタデータ) (2023-12-19T23:56:49Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Flexible Job Shop Scheduling via Dual Attention Network Based
Reinforcement Learning [73.19312285906891]
フレキシブルなジョブショップスケジューリング問題(FJSP)では、複数のマシンで操作を処理でき、操作とマシンの間の複雑な関係が生じる。
近年, 深層強化学習(DRL)を用いて, FJSP解決のための優先派遣規則(PDR)を学習している。
本稿では,Deep機能抽出のための自己注意モデルと,スケーラブルな意思決定のためのDRLの利点を生かした,エンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T01:35:48Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Learning to schedule job-shop problems: Representation and policy
learning using graph neural network and reinforcement learning [9.379652654427959]
グラフニューラルネットワーク(GNN)と強化学習(RL)を用いて,ジョブショップ問題(JSSP)のスケジューリングを学習するフレームワークを提案する。
我々は、GNNスケジューラが、その超一般化能力により、様々なベンチマークJSSP上で、現実的に好まれるルールやRLベースのスケジューラよりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T11:40:22Z) - Smart Scheduling based on Deep Reinforcement Learning for Cellular
Networks [18.04856086228028]
深部強化学習(DRL)に基づくスマートスケジューリング手法を提案する。
実装フレンドリーな設計、すなわちエージェントのためのスケーラブルなニューラルネットワーク設計と仮想環境トレーニングフレームワークを提供する。
本研究では, DRLベースのスマートスケジューリングが従来のスケジューリング方式を上回り, 実用システムにも適用できることを示した。
論文 参考訳(メタデータ) (2021-03-22T02:09:16Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。