論文の概要: Dynamic Dispatching for Large-Scale Heterogeneous Fleet via Multi-agent
Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2008.10713v1
- Date: Mon, 24 Aug 2020 21:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 09:06:28.326020
- Title: Dynamic Dispatching for Large-Scale Heterogeneous Fleet via Multi-agent
Deep Reinforcement Learning
- Title(参考訳): マルチエージェント深層強化学習による大規模異種艦隊の動的派遣
- Authors: Chi Zhang, Philip Odonkor, Shuai Zheng, Hamed Khorasgani, Susumu
Serita, Chetan Gupta
- Abstract要約: 本研究では,鉱業における動的問題を解決するための新しい深層強化学習手法を提案する。
まず,実地雷のパラメータを校正したイベントベースマイニングシミュレータを開発した。
そこで我々は,異種エージェントから記憶を学習するための,新しい抽象的状態/行動表現を用いた体験共有型ディープQネットワークを提案する。
- 参考スコア(独自算出の注目度): 10.835960004409708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic dispatching is one of the core problems for operation optimization in
traditional industries such as mining, as it is about how to smartly allocate
the right resources to the right place at the right time. Conventionally, the
industry relies on heuristics or even human intuitions which are often
short-sighted and sub-optimal solutions. Leveraging the power of AI and
Internet of Things (IoT), data-driven automation is reshaping this area.
However, facing its own challenges such as large-scale and heterogenous trucks
running in a highly dynamic environment, it can barely adopt methods developed
in other domains (e.g., ride-sharing). In this paper, we propose a novel Deep
Reinforcement Learning approach to solve the dynamic dispatching problem in
mining. We first develop an event-based mining simulator with parameters
calibrated in real mines. Then we propose an experience-sharing Deep Q Network
with a novel abstract state/action representation to learn memories from
heterogeneous agents altogether and realizes learning in a centralized way. We
demonstrate that the proposed methods significantly outperform the most widely
adopted approaches in the industry by $5.56\%$ in terms of productivity. The
proposed approach has great potential in a broader range of industries (e.g.,
manufacturing, logistics) which have a large-scale of heterogenous equipment
working in a highly dynamic environment, as a general framework for dynamic
resource allocation.
- Abstract(参考訳): 動的ディスパッチは、適切なリソースを適切なタイミングで適切な場所に適切に割り当てる方法について、鉱業などの伝統的な産業における運用最適化の核となる問題のひとつです。
伝統的に、業界はヒューリスティックスや人間の直観にも依存しており、それらはしばしば近視的かつ最適のソリューションである。
AIとIoT(Internet of Things)のパワーを活用することで、データ駆動の自動化がこの領域を変えようとしている。
しかし、高度にダイナミックな環境で走る大規模で異質なトラックのような独自の課題に直面して、他のドメイン(例えばライドシェアリング)で開発された手法をほとんど採用できない。
本稿では,鉱業における動的派遣問題を解くための新しい深層強化学習手法を提案する。
まず,実地雷のパラメータを校正したイベントベースマイニングシミュレータを開発した。
そこで本研究では,多様なエージェントから記憶を学習するために,新しい抽象状態/動作表現を用いた経験共有型ディープqネットワークを提案する。
提案手法は,生産性の面で業界で最も広く採用されている手法である5.56\%を著しく上回っている。
提案手法は, 動的資源配分の汎用フレームワークとして, 多様な産業(製造, 物流など)において, 高度にダイナミックな環境で動作する大規模異種機器を有する大きな可能性を秘めている。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Imagine, Initialize, and Explore: An Effective Exploration Method in
Multi-Agent Reinforcement Learning [27.81925751697255]
複雑なシナリオにおける効率的なマルチエージェント探索法を提案する。
我々は、状態、観察、プロンプト、行動、報酬が自己回帰的に予測されるシーケンスモデリング問題として想像を定式化する。
臨界状態のエージェントを初期化することにより、IIEは潜在的に重要な未探索領域を発見する可能性を大幅に高める。
論文 参考訳(メタデータ) (2024-02-28T01:45:01Z) - An Interactive Agent Foundation Model [49.77861810045509]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - DREAM: Decentralized Reinforcement Learning for Exploration and
Efficient Energy Management in Multi-Robot Systems [14.266876062352424]
資源制約されたロボットは、しばしばエネルギー不足、不適切なタスク割り当てによる計算能力の不足、動的環境における堅牢性の欠如に悩まされる。
本稿では,マルチロボットシステムにおける探索と効率的なエネルギー管理のための分散強化学習DREAMを紹介する。
論文 参考訳(メタデータ) (2023-09-29T17:43:41Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Graph Neural Networks for Decentralized Multi-Robot Submodular Action
Selection [101.38634057635373]
ロボットがチームサブモジュールの目的を最大化するために共同で行動を選択する必要があるアプリケーションに焦点を当てる。
分散通信によるサブモジュール化に向けた汎用学習アーキテクチャを提案する。
大規模ロボットネットワークによるアクティブターゲットカバレッジのシナリオにおいて、GNNベースの学習アプローチのパフォーマンスを実証します。
論文 参考訳(メタデータ) (2021-05-18T15:32:07Z) - Challenges of Applying Deep Reinforcement Learning in Dynamic
Dispatching [14.412373060545491]
動的ディスパッチは、鉱業における運用最適化における中核的な問題の一つである。
深層強化学習は、この問題を解決するのに自然に適しているはずだ。
本稿では, 動的ディスパッチ問題に対処するために, ディープRLを使用する際の主な課題について概説する。
論文 参考訳(メタデータ) (2020-11-09T22:26:45Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - MAPPER: Multi-Agent Path Planning with Evolutionary Reinforcement
Learning in Mixed Dynamic Environments [30.407700996710023]
本稿では,進化的強化学習法(MAPPER)を用いた分散部分観測可能なマルチエージェントパス計画を提案する。
我々は、長距離ナビゲーションタスクを、グローバルプランナーの指導の下で、より簡単なサブタスクに分解する。
提案手法は,イメージベース表現を用いて動的障害物の挙動をモデル化し,均質性の仮定を伴わない混合動的環境におけるポリシーを訓練する。
論文 参考訳(メタデータ) (2020-07-30T20:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。