論文の概要: Reinforcement Learning on Job Shop Scheduling Problems Using Graph
Networks
- arxiv url: http://arxiv.org/abs/2009.03836v1
- Date: Tue, 8 Sep 2020 16:05:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 20:45:16.670732
- Title: Reinforcement Learning on Job Shop Scheduling Problems Using Graph
Networks
- Title(参考訳): グラフネットワークを用いたジョブショップスケジューリング問題の強化学習
- Authors: Mohammed Sharafath Abdul Hameed, Andreas Schwung
- Abstract要約: 本稿では, 深層強化学習を用いたジョブショップスケジューリング問題に対する新しいアプローチを提案する。
生産環境の複雑さを考慮し、生産環境内の様々な関係をモデル化するためにグラフニューラルネットワークを用いる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel approach for job shop scheduling problems using
deep reinforcement learning. To account for the complexity of production
environment, we employ graph neural networks to model the various relations
within production environments. Furthermore, we cast the JSSP as a distributed
optimization problem in which learning agents are individually assigned to
resources which allows for higher flexibility with respect to changing
production environments. The proposed distributed RL agents used to optimize
production schedules for single resources are running together with a
co-simulation framework of the production environment to obtain the required
amount of data. The approach is applied to a multi-robot environment and a
complex production scheduling benchmark environment. The initial results
underline the applicability and performance of the proposed method.
- Abstract(参考訳): 本稿では,深層強化学習を用いたジョブショップスケジューリング問題に対する新しいアプローチを提案する。
生産環境の複雑さを考慮したグラフニューラルネットワークを用いて,生産環境内の様々な関係をモデル化する。
さらに,運用環境の変化に対して高い柔軟性を実現するために,学習エージェントを個別にリソースに割り当てる分散最適化問題としてjsspを採用した。
シングルリソースの生産スケジュールを最適化するために使用される分散rlエージェントは、必要な量のデータを得るためにプロダクション環境の共シミュレーションフレームワークと共に実行されている。
このアプローチは、マルチロボット環境と複雑なプロダクションスケジューリングベンチマーク環境に適用される。
最初の結果は,提案手法の適用可能性と性能を示す。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Learning to Solve Job Shop Scheduling under Uncertainty [1.3002317221601185]
ジョブショップスケジューリング問題(JSSP、Job-Shop Scheduling Problem)は、タスクをマシン上でスケジュールする必要がある最適化問題である。
本稿では,Dreep Reinforcement Learning (DRL) 技術を利用してロバストなソリューションを探索する手法を提案する。
論文 参考訳(メタデータ) (2024-03-04T08:38:55Z) - OTOv3: Automatic Architecture-Agnostic Neural Network Training and
Compression from Structured Pruning to Erasing Operators [57.145175475579315]
このトピックは、構造化プルーニングからニューラルアーキテクチャサーチまで、さまざまなテクニックにまたがっている。
第3世代のOTOv3(Noth-Train-Once)を導入する。
我々は,構造化プルーニングとニューラルアーキテクチャ探索におけるOTOv3の有効性を実証した。
論文 参考訳(メタデータ) (2023-12-15T00:22:55Z) - Learning Regularized Graphon Mean-Field Games with Unknown Graphons [155.38727464526923]
グラフィック平均フィールドゲーム(GMFG)のための強化学習アルゴリズムを設計する。
我々は、正規化されたGMFGのナッシュ平衡(NE)を、グラフンが未知のときに学習することを目指している。
これらのアルゴリズムは、サンプルエージェントからグラモンを学習するために設計された最初のものである。
論文 参考訳(メタデータ) (2023-10-26T16:19:24Z) - Deep reinforcement learning for machine scheduling: Methodology, the
state-of-the-art, and future directions [2.4541568670428915]
マシンスケジューリングは、製造ルールとジョブ仕様に準拠しながら、マシンへのジョブ割り当てを最適化することを目的としている。
人工知能の重要な構成要素であるDeep Reinforcement Learning (DRL)は、ゲームやロボティクスなど、さまざまな分野において有望であることを示している。
本稿では、DRLに基づくアプローチの総合的なレビューと比較を行い、その方法論、応用、利点、限界を明らかにする。
論文 参考訳(メタデータ) (2023-10-04T22:45:09Z) - HARL: Hierarchical Adaptive Reinforcement Learning Based Auto Scheduler
for Neural Networks [51.71682428015139]
効率的なテンソルプログラム探索のための強化学習に基づく自動スケジューリングシステムであるHARLを提案する。
HarLは、最先端のオートスケジューラと比較して、テンソル演算子の性能を22%改善し、探索速度を4.3倍改善する。
また、エンドツーエンドのニューラルネットワークでは、推論性能と探索速度も大幅に向上する。
論文 参考訳(メタデータ) (2022-11-21T04:15:27Z) - Learning to schedule job-shop problems: Representation and policy
learning using graph neural network and reinforcement learning [9.379652654427959]
グラフニューラルネットワーク(GNN)と強化学習(RL)を用いて,ジョブショップ問題(JSSP)のスケジューリングを学習するフレームワークを提案する。
我々は、GNNスケジューラが、その超一般化能力により、様々なベンチマークJSSP上で、現実的に好まれるルールやRLベースのスケジューラよりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T11:40:22Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z) - RL-Scope: Cross-Stack Profiling for Deep Reinforcement Learning
Workloads [4.575381867242508]
RL-Scopeは、低レベルのCPU/GPUリソース使用量を高レベルのアルゴリズム操作にスコープするクロススタックプロファイラである。
本稿では,RL-Scopeの実用性について,詳細なケーススタディを通して紹介する。
論文 参考訳(メタデータ) (2021-02-08T15:42:48Z) - L$^2$-GCN: Layer-Wise and Learned Efficient Training of Graph
Convolutional Networks [118.37805042816784]
グラフ畳み込みネットワーク(GCN)は、多くのアプリケーションで人気が高まっているが、大きなグラフデータセットをトレーニングするのは依然として難しい。
本稿では,GCN (L-GCN) のための新しいレイヤワイドトレーニングフレームワークを提案する。
実験の結果、L-GCNは少なくとも1桁の精度で最先端よりも高速であり、メモリ使用量はデータセットのサイズに依存しないことがわかった。
論文 参考訳(メタデータ) (2020-03-30T16:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。