論文の概要: Deep Reinforcement Learning and Transportation Research: A Comprehensive
Review
- arxiv url: http://arxiv.org/abs/2010.06187v1
- Date: Tue, 13 Oct 2020 05:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 22:55:31.114949
- Title: Deep Reinforcement Learning and Transportation Research: A Comprehensive
Review
- Title(参考訳): 深層強化学習と交通研究 : 総合的考察
- Authors: Nahid Parvez Farazi, Tanvir Ahamed, Limon Barua, Bo Zou
- Abstract要約: DRLの数学的背景、人気があり有望なDRLアルゴリズム、高効率なDRL拡張について概説する。
本稿では, DRL技術の適用性, 強度, 欠点, 一般, 応用に特有な課題について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) is an emerging methodology that is
transforming the way many complicated transportation decision-making problems
are tackled. Researchers have been increasingly turning to this powerful
learning-based methodology to solve challenging problems across transportation
fields. While many promising applications have been reported in the literature,
there remains a lack of comprehensive synthesis of the many DRL algorithms and
their uses and adaptations. The objective of this paper is to fill this gap by
conducting a comprehensive, synthesized review of DRL applications in
transportation. We start by offering an overview of the DRL mathematical
background, popular and promising DRL algorithms, and some highly effective DRL
extensions. Building on this overview, a systematic investigation of about 150
DRL studies that have appeared in the transportation literature, divided into
seven different categories, is performed. Building on this review, we continue
to examine the applicability, strengths, shortcomings, and common and
application-specific issues of DRL techniques with regard to their applications
in transportation. In the end, we recommend directions for future research and
present available resources for actually implementing DRL.
- Abstract(参考訳): 深層強化学習(drl)は、多くの複雑な輸送意思決定問題に取り組む方法を変える新しい手法である。
研究者たちは、交通分野全体の課題を解決するために、この強力な学習ベースの手法にますます目を向けている。
文献で多くの有望な応用が報告されているが、多くのDRLアルゴリズムとその利用と適応の総合的な合成が不足している。
本研究の目的は,交通におけるDRL適用の総合的,総合的なレビューを行うことによって,このギャップを埋めることである。
まず、DRLの数学的背景、人気があり有望なDRLアルゴリズム、高効率なDRL拡張について概説する。
本総説に基づき,7つのカテゴリーに区分された輸送文学に出現した約150のdrl研究を体系的に調査した。
このレビューに基づいて,drl技術の適用性,長所,欠点,および輸送分野におけるdrl技術の共通および応用特有の課題について検討し続けている。
最後に,DRLを実際に実装するための今後の研究の方向性と利用可能なリソースについて紹介する。
関連論文リスト
- Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - D5RL: Diverse Datasets for Data-Driven Deep Reinforcement Learning [99.33607114541861]
ロボット操作と移動環境の現実的なシミュレーションに焦点を当てたオフラインRLのための新しいベンチマークを提案する。
提案するベンチマークでは、状態ベースドメインと画像ベースドメインを対象とし、オフラインRLとオンライン微調整評価の両方をサポートしている。
論文 参考訳(メタデータ) (2024-08-15T22:27:00Z) - Generative AI for Deep Reinforcement Learning: Framework, Analysis, and Use Cases [60.30995339585003]
深部強化学習(DRL)は様々な分野に広く適用されており、優れた成果を上げている。
DRLは、サンプル効率の低下や一般化の低さなど、いくつかの制限に直面している。
本稿では、これらの問題に対処し、DRLアルゴリズムの性能を向上させるために、生成AI(GAI)を活用する方法について述べる。
論文 参考訳(メタデータ) (2024-05-31T01:25:40Z) - Common Challenges of Deep Reinforcement Learning Applications Development: An Empirical Study [10.705440907493452]
Deep Reinforcement Learning (DRL) は、インテリジェントエージェントを生成するために使用される機械学習(ML)のサブドメインである。
近年のDRL技術の発展にもかかわらず、開発者がDRLアプリケーション開発で直面する主な課題はまだ不明である。
論文 参考訳(メタデータ) (2023-10-14T12:57:30Z) - Ensemble Reinforcement Learning: A Survey [43.17635633600716]
強化学習(Reinforcement Learning, RL)は, 様々な科学的, 応用的な問題に対処するための, 極めて効果的な手法として登場した。
これに対し, アンサンブル強化学習(ERL)は, RLとアンサンブル学習(EL)の両方の利点を組み合わせた有望なアプローチであり, 広く普及している。
ERLは複数のモデルやトレーニングアルゴリズムを活用して、問題空間を包括的に探索し、強力な一般化能力を持つ。
論文 参考訳(メタデータ) (2023-03-05T09:26:44Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - A Survey on Offline Reinforcement Learning: Taxonomy, Review, and Open
Problems [0.0]
強化学習(RL)は、急速に人気が高まっている。
高いコストと環境との相互作用の危険性のため、RLにはアクセスできない領域がまだ広い範囲にある。
オフラインRLは、以前に収集されたインタラクションの静的データセットからのみ学習するパラダイムである。
論文 参考訳(メタデータ) (2022-03-02T20:05:11Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - RL Unplugged: A Suite of Benchmarks for Offline Reinforcement Learning [108.9599280270704]
オフラインのRL手法を評価・比較するためのRL Unpluggedというベンチマークを提案する。
RL Unpluggedにはゲームやシミュレートされたモーター制御問題を含むさまざまな領域のデータが含まれている。
本論文で提示した全タスクのデータと,全アルゴリズムをオープンソースとして公開する。
論文 参考訳(メタデータ) (2020-06-24T17:14:51Z) - Deep Reinforcement Learning for Intelligent Transportation Systems: A
Survey [23.300763504208597]
データ駆動型アプリケーションと輸送システムを組み合わせることは、近年の輸送アプリケーションにおいて重要な役割を担っている。
深部強化学習(RL)に基づく交通制御アプリケーションについて調査する。
論文 参考訳(メタデータ) (2020-05-02T22:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。