論文の概要: Challenges of Applying Deep Reinforcement Learning in Dynamic
Dispatching
- arxiv url: http://arxiv.org/abs/2011.05570v1
- Date: Mon, 9 Nov 2020 22:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:25:50.705137
- Title: Challenges of Applying Deep Reinforcement Learning in Dynamic
Dispatching
- Title(参考訳): 動的ディスパッチにおける深層強化学習の適用の課題
- Authors: Hamed Khorasgani, Haiyan Wang, Chetan Gupta
- Abstract要約: 動的ディスパッチは、鉱業における運用最適化における中核的な問題の一つである。
深層強化学習は、この問題を解決するのに自然に適しているはずだ。
本稿では, 動的ディスパッチ問題に対処するために, ディープRLを使用する際の主な課題について概説する。
- 参考スコア(独自算出の注目度): 14.412373060545491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic dispatching aims to smartly allocate the right resources to the right
place at the right time. Dynamic dispatching is one of the core problems for
operations optimization in the mining industry. Theoretically, deep
reinforcement learning (RL) should be a natural fit to solve this problem.
However, the industry relies on heuristics or even human intuitions, which are
often short-sighted and sub-optimal solutions. In this paper, we review the
main challenges in using deep RL to address the dynamic dispatching problem in
the mining industry.
- Abstract(参考訳): 動的ディスパッチは、適切なタイミングで適切なリソースを適切に割り当てることを目的としています。
動的ディスパッチは鉱業における運用最適化の核となる問題の一つである。
理論的には、深層強化学習(RL)はこの問題を解決するのに自然に適している。
しかし、業界はヒューリスティックスや人間の直観にも依存しており、それらはしばしば近視的かつ最適のソリューションである。
本稿では,鉱業における動的ディスパッチ問題に,深部RLを用いて対処する上での課題について概説する。
関連論文リスト
- ODRL: A Benchmark for Off-Dynamics Reinforcement Learning [59.72217833812439]
我々は、オフダイナミックスRL法を評価するための最初のベンチマークであるODRLを紹介する。
ODRLには、4つの実験的な設定が含まれており、ソースドメインとターゲットドメインはオンラインまたはオフラインにすることができる。
我々は、様々な力学シフトにまたがる普遍的な優位性を持つ手法が存在しないことを示す広範なベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-10-28T05:29:38Z) - Deep Reinforcement Learning for Dynamic Order Picking in Warehouse Operations [0.6116681488656472]
本研究は動的順序決定問題に対処する。
固定順序集合を仮定する伝統的な手法は、この動的環境において不足する。
顧客の要求に固有の不確実性を扱うためのソリューション手法として,Deep Reinforcement Learning (DRL) を利用する。
論文 参考訳(メタデータ) (2024-08-03T03:56:46Z) - Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Intrinsically-Motivated Reinforcement Learning: A Brief Introduction [0.0]
強化学習(Reinforcement Learning, RL)は、機械学習の3つの基本パラダイムの1つである。
本稿では,RLにおける探査改善の問題点を考察し,本質的な動機付け型RLを導入した。
論文 参考訳(メタデータ) (2022-03-03T12:39:58Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Deep Reinforcement Learning for Combinatorial Optimization: Covering
Salesman Problems [4.692304496312442]
本稿では,カバーセールスマン問題 (CSP) を大まかに解くための新しい深層学習手法を提案する。
このアプローチでは、CSPの都市位置を入力として、ディープニューラルネットワークモデルがソリューションを直接出力するように設計されている。
指導なしに深層強化学習を用いて訓練される。
論文 参考訳(メタデータ) (2021-02-11T07:25:04Z) - Dynamic Dispatching for Large-Scale Heterogeneous Fleet via Multi-agent
Deep Reinforcement Learning [10.835960004409708]
本研究では,鉱業における動的問題を解決するための新しい深層強化学習手法を提案する。
まず,実地雷のパラメータを校正したイベントベースマイニングシミュレータを開発した。
そこで我々は,異種エージェントから記憶を学習するための,新しい抽象的状態/行動表現を用いた体験共有型ディープQネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-24T21:29:56Z) - Dynamics Generalization via Information Bottleneck in Deep Reinforcement
Learning [90.93035276307239]
本稿では,RLエージェントのより優れた一般化を実現するために,情報理論正則化目標とアニーリングに基づく最適化手法を提案する。
迷路ナビゲーションからロボットタスクまで、さまざまな領域において、我々のアプローチの極端な一般化の利点を実証する。
この研究は、タスク解決のために冗長な情報を徐々に取り除き、RLの一般化を改善するための原則化された方法を提供する。
論文 参考訳(メタデータ) (2020-08-03T02:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。