論文の概要: Reinforcement Learning Approach for Multi-Agent Flexible Scheduling
Problems
- arxiv url: http://arxiv.org/abs/2210.03674v1
- Date: Fri, 7 Oct 2022 16:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 15:03:24.276234
- Title: Reinforcement Learning Approach for Multi-Agent Flexible Scheduling
Problems
- Title(参考訳): マルチエージェントフレキシブルスケジューリング問題に対する強化学習アプローチ
- Authors: Hongjian Zhou, Boyang Gu, Chenghao Jin
- Abstract要約: 本研究では,スケジューリング問題に対する強化学習手法を提案する。
特に,本研究では,ジョブショップスケジューリング問題に対して,検索スペースを削減したオープンAIジム環境を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scheduling plays an important role in automated production. Its impact can be
found in various fields such as the manufacturing industry, the service
industry and the technology industry. A scheduling problem (NP-hard) is a task
of finding a sequence of job assignments on a given set of machines with the
goal of optimizing the objective defined. Methods such as Operation Research,
Dispatching Rules, and Combinatorial Optimization have been applied to
scheduling problems but no solution guarantees to find the optimal solution.
The recent development of Reinforcement Learning has shown success in
sequential decision-making problems. This research presents a Reinforcement
Learning approach for scheduling problems. In particular, this study delivers
an OpenAI gym environment with search-space reduction for Job Shop Scheduling
Problems and provides a heuristic-guided Q-Learning solution with
state-of-the-art performance for Multi-agent Flexible Job Shop Problems.
- Abstract(参考訳): スケジューリングは自動生産において重要な役割を果たす。
その影響は、製造業、サービス産業、技術産業など様々な分野で見られる。
スケジューリング問題(NP-hard)は、定義された目的を最適化することを目的として、与えられたマシンのセット上のジョブの順序を見つけるタスクである。
オペレーティングリサーチ、ディスパッチングルール、コンビニアル最適化といった手法はスケジューリング問題に応用されているが、最適解を見つけるための解決保証はない。
近年の強化学習の発展は、逐次的な意思決定問題に成功している。
本研究では,スケジューリング問題に対する強化学習手法を提案する。
特に,本研究では,ジョブショップスケジューリング問題に対する検索スペースを削減したオープンAIジム環境を提供し,マルチエージェントフレキシブルジョブショップ問題に対する最先端性能を備えたヒューリスティックガイダンスQラーニングソリューションを提供する。
関連論文リスト
- Offline reinforcement learning for job-shop scheduling problems [1.3927943269211593]
本稿では,複雑な制約を伴う最適化問題に対して,新しいオフラインRL法を提案する。
我々のアプローチは、エッジ属性のアクションを符号化し、専門家ソリューションの模倣と期待される報酬のバランスをとる。
本手法がジョブショップスケジューリングおよびフレキシブルジョブショップスケジューリングベンチマークに与える影響を実証する。
論文 参考訳(メタデータ) (2024-10-21T07:33:42Z) - Robotic warehousing operations: a learn-then-optimize approach to large-scale neighborhood search [84.39855372157616]
本稿では,ワークステーションの注文処理,アイテムポッドの割り当て,ワークステーションでの注文処理のスケジュールを最適化することで,ウェアハウジングにおけるロボット部品対ピッカー操作を支援する。
そこで我々は, 大規模近傍探索を用いて, サブプロブレム生成に対する学習を最適化する手法を提案する。
Amazon Roboticsと共同で、我々のモデルとアルゴリズムは、最先端のアプローチよりも、実用的な問題に対するより強力なソリューションを生み出していることを示す。
論文 参考訳(メタデータ) (2024-08-29T20:22:22Z) - Contractual Reinforcement Learning: Pulling Arms with Invisible Hands [68.77645200579181]
本稿では,契約設計によるオンライン学習問題において,利害関係者の経済的利益を整合させる理論的枠組みを提案する。
計画問題に対して、遠目エージェントに対する最適契約を決定するための効率的な動的プログラミングアルゴリズムを設計する。
学習問題に対して,契約の堅牢な設計から探索と搾取のバランスに至るまでの課題を解き放つために,非回帰学習アルゴリズムの汎用設計を導入する。
論文 参考訳(メタデータ) (2024-07-01T16:53:00Z) - Attention-based Reinforcement Learning for Combinatorial Optimization: Application to Job Shop Scheduling Problem [2.024210754085351]
本研究では,ジョブショップスケジューリング問題に特化して設計された,革新的な注意力に基づく強化学習手法を提案する。
この研究の鍵となる発見は、提案手法で訓練を受けた学習者が、初期訓練セットに含まれない大規模問題に再利用できることである。
論文 参考訳(メタデータ) (2024-01-29T21:31:54Z) - Accelerate Presolve in Large-Scale Linear Programming via Reinforcement
Learning [92.31528918811007]
本稿では,P1)-(P3) を同時に扱うための簡易かつ効率的な強化学習フレームワーク,すなわち,事前解決のための強化学習(RL4Presolve)を提案する。
2つの解法と8つのベンチマーク(実世界と合成)の実験により、RL4Presolveは大規模LPの解法効率を大幅に改善することを示した。
論文 参考訳(メタデータ) (2023-10-18T09:51:59Z) - A Reinforcement Learning Approach for Scheduling Problems With Improved
Generalization Through Order Swapping [0.0]
JSSP は NP-hard COP のカテゴリに分類される。
近年,COPの解法にDRLを用いる研究が注目され,解の質や計算効率の面で有望な結果が示されている。
特に、制約されたジョブのディスパッチにおいてよく機能すると考えられるポリシ・グラディエントパラダイムを採用するPPOアルゴリズムを採用する。
論文 参考訳(メタデータ) (2023-02-27T16:45:04Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - SeaPearl: A Constraint Programming Solver guided by Reinforcement
Learning [0.0]
本稿では,Juliaで実装された新しい制約プログラミング問題であるSeaPearlの概念実証について述べる。
seapearlは強化学習を使用して分岐決定を学ぶために機械学習ルーチンをサポートする。
産業用ソリューションとはまだ競合していないが、seapearlは柔軟でオープンソースなフレームワークを提供することを目指している。
論文 参考訳(メタデータ) (2021-02-18T07:34:38Z) - Task-Optimal Exploration in Linear Dynamical Systems [29.552894877883883]
タスクガイドによる探索を行い、タスクを完了させるためにエージェントが環境について正確に何を学ばなければならないかを決定する。
我々は、関心のあるタスクを完了させることの難しさを明示的に定量化する、インスタンス依存およびタスク依存の下位境界を提供する。
本研究では,タスク完了に必要な情報を正確に収集し,インスタンスとタスクの最適サンプルの複雑さを達成するための有限時間境界を提供することにより,環境を最適に探索することを示す。
論文 参考訳(メタデータ) (2021-02-10T01:42:22Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。