論文の概要: Graph neural networks-based Scheduler for Production planning problems
using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2009.03836v2
- Date: Tue, 16 May 2023 10:31:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 20:22:59.648115
- Title: Graph neural networks-based Scheduler for Production planning problems
using Reinforcement Learning
- Title(参考訳): 強化学習による生産計画問題のためのグラフニューラルネットワークに基づくスケジューラ
- Authors: Mohammed Sharafath Abdul Hameed, Andreas Schwung
- Abstract要約: 本稿では、強化学習を用いた生産計画問題のための新しいフレームワーク、GraSP-RL、GRAphニューラルネットワークベースのスケジューリング手法を提案する。
JSSPをグラフとして表現し、グラフニューラルネットワーク(GNN)を用いて抽出した特徴を用いてRLエージェントを訓練する。
グラフ自身は非ユークリッド空間にあるが、GNNを用いて抽出された特徴はユークリッド空間における現在の生産状態をリッチに符号化し、次にRLエージェントが次のジョブを選択する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reinforcement learning (RL) is increasingly adopted in job shop scheduling
problems (JSSP). But RL for JSSP is usually done using a vectorized
representation of machine features as the state space. It has three major
problems: (1) the relationship between the machine units and the job sequence
is not fully captured, (2) exponential increase in the size of the state space
with increasing machines/jobs, and (3) the generalization of the agent to
unseen scenarios. We present a novel framework - GraSP-RL, GRAph neural
network-based Scheduler for Production planning problems using Reinforcement
Learning. It represents JSSP as a graph and trains the RL agent using features
extracted using a graph neural network (GNN). While the graph is itself in the
non-euclidean space, the features extracted using the GNNs provide a rich
encoding of the current production state in the euclidean space, which is then
used by the RL agent to select the next job. Further, we cast the scheduling
problem as a decentralized optimization problem in which the learning agent is
assigned to all the production units and the agent learns asynchronously from
the data collected on all the production units. The GraSP-RL is then applied to
a complex injection molding production environment with 30 jobs and 4 machines.
The task is to minimize the makespan of the production plan. The schedule
planned by GraSP-RL is then compared and analyzed with a priority dispatch rule
algorithm like first-in-first-out (FIFO) and metaheuristics like tabu search
(TS) and genetic algorithm (GA). The proposed GraSP-RL outperforms the FIFO,
TS, and GA for the trained task of planning 30 jobs in JSSP. We further test
the generalization capability of the trained agent on two different problem
classes: Open shop system (OSS) and Reactive JSSP (RJSSP) where our method
produces results better than FIFO and comparable results to TS and GA.
- Abstract(参考訳): 求人スケジューリング問題(JSSP)では強化学習(RL)がますます採用されている。
しかし、JSSPのRLは通常、状態空間としてマシン機能のベクトル化表現を使用して行われる。
1) 機械ユニットとジョブシークエンスの関係が十分に把握されていないこと,(2) 機械/ジョブの増加に伴う状態空間の大きさの指数関数的な増加,(3) エージェントの非認識シナリオへの一般化の3つの大きな問題がある。
本稿では,強化学習を用いた生産計画問題のための新しいフレームワークであるgrab-rl,グラフニューラルネットワークベースのスケジューラを提案する。
JSSPをグラフとして表現し、グラフニューラルネットワーク(GNN)を用いて抽出した特徴を用いてRLエージェントを訓練する。
グラフはそれ自体が非ユークリッド空間にあるが、gnnを用いて抽出された特徴はユークリッド空間における現在の生成状態のリッチなエンコーディングを提供し、rlエージェントが次のジョブを選択するために使用する。
さらに、スケジューリング問題を、学習エージェントが全生産単位に割り当てられ、エージェントが全生産単位に収集されたデータから非同期に学習する分散最適化問題として検討した。
その後、GraSP-RLは30ジョブと4マシンの複雑な射出成形生産環境に適用される。
タスクは生産計画の規模を最小化することです。
GraSP-RLが計画するスケジュールは、優先ディスパッチルールアルゴリズム(FIFO)やタブサーチ(TS)や遺伝的アルゴリズム(GA)のようなメタヒューリスティックス(メタヒューリスティックス)と比較分析される。
提案したGraSP-RLは、JSSPで30のジョブを計画する訓練作業において、FIFO、TS、GAを上回っている。
さらに,オープンショップシステム (OSS) とリアクティブJSSP (RJSSP) という,FIFO よりも優れた結果が得られ,TS と GA に匹敵する結果が得られた。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Learning to Solve Job Shop Scheduling under Uncertainty [1.3002317221601185]
ジョブショップスケジューリング問題(JSSP、Job-Shop Scheduling Problem)は、タスクをマシン上でスケジュールする必要がある最適化問題である。
本稿では,Dreep Reinforcement Learning (DRL) 技術を利用してロバストなソリューションを探索する手法を提案する。
論文 参考訳(メタデータ) (2024-03-04T08:38:55Z) - OTOv3: Automatic Architecture-Agnostic Neural Network Training and
Compression from Structured Pruning to Erasing Operators [57.145175475579315]
このトピックは、構造化プルーニングからニューラルアーキテクチャサーチまで、さまざまなテクニックにまたがっている。
第3世代のOTOv3(Noth-Train-Once)を導入する。
我々は,構造化プルーニングとニューラルアーキテクチャ探索におけるOTOv3の有効性を実証した。
論文 参考訳(メタデータ) (2023-12-15T00:22:55Z) - Learning Regularized Graphon Mean-Field Games with Unknown Graphons [155.38727464526923]
グラフィック平均フィールドゲーム(GMFG)のための強化学習アルゴリズムを設計する。
我々は、正規化されたGMFGのナッシュ平衡(NE)を、グラフンが未知のときに学習することを目指している。
これらのアルゴリズムは、サンプルエージェントからグラモンを学習するために設計された最初のものである。
論文 参考訳(メタデータ) (2023-10-26T16:19:24Z) - Deep reinforcement learning for machine scheduling: Methodology, the
state-of-the-art, and future directions [2.4541568670428915]
マシンスケジューリングは、製造ルールとジョブ仕様に準拠しながら、マシンへのジョブ割り当てを最適化することを目的としている。
人工知能の重要な構成要素であるDeep Reinforcement Learning (DRL)は、ゲームやロボティクスなど、さまざまな分野において有望であることを示している。
本稿では、DRLに基づくアプローチの総合的なレビューと比較を行い、その方法論、応用、利点、限界を明らかにする。
論文 参考訳(メタデータ) (2023-10-04T22:45:09Z) - HARL: Hierarchical Adaptive Reinforcement Learning Based Auto Scheduler
for Neural Networks [51.71682428015139]
効率的なテンソルプログラム探索のための強化学習に基づく自動スケジューリングシステムであるHARLを提案する。
HarLは、最先端のオートスケジューラと比較して、テンソル演算子の性能を22%改善し、探索速度を4.3倍改善する。
また、エンドツーエンドのニューラルネットワークでは、推論性能と探索速度も大幅に向上する。
論文 参考訳(メタデータ) (2022-11-21T04:15:27Z) - Learning to schedule job-shop problems: Representation and policy
learning using graph neural network and reinforcement learning [9.379652654427959]
グラフニューラルネットワーク(GNN)と強化学習(RL)を用いて,ジョブショップ問題(JSSP)のスケジューリングを学習するフレームワークを提案する。
我々は、GNNスケジューラが、その超一般化能力により、様々なベンチマークJSSP上で、現実的に好まれるルールやRLベースのスケジューラよりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T11:40:22Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z) - RL-Scope: Cross-Stack Profiling for Deep Reinforcement Learning
Workloads [4.575381867242508]
RL-Scopeは、低レベルのCPU/GPUリソース使用量を高レベルのアルゴリズム操作にスコープするクロススタックプロファイラである。
本稿では,RL-Scopeの実用性について,詳細なケーススタディを通して紹介する。
論文 参考訳(メタデータ) (2021-02-08T15:42:48Z) - L$^2$-GCN: Layer-Wise and Learned Efficient Training of Graph
Convolutional Networks [118.37805042816784]
グラフ畳み込みネットワーク(GCN)は、多くのアプリケーションで人気が高まっているが、大きなグラフデータセットをトレーニングするのは依然として難しい。
本稿では,GCN (L-GCN) のための新しいレイヤワイドトレーニングフレームワークを提案する。
実験の結果、L-GCNは少なくとも1桁の精度で最先端よりも高速であり、メモリ使用量はデータセットのサイズに依存しないことがわかった。
論文 参考訳(メタデータ) (2020-03-30T16:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。