論文の概要: A Survey of Reinforcement Learning-Based Motion Planning for Autonomous Driving: Lessons Learned from a Driving Task Perspective
- arxiv url: http://arxiv.org/abs/2503.23650v1
- Date: Mon, 31 Mar 2025 01:31:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:33:10.527688
- Title: A Survey of Reinforcement Learning-Based Motion Planning for Autonomous Driving: Lessons Learned from a Driving Task Perspective
- Title(参考訳): 自律運転のための強化学習に基づく運動計画に関する調査--運転課題から学ぶ
- Authors: Zhuoren Li, Guizhe Jin, Ran Yu, Zhiwen Chen, Nan Li, Wei Han, Lu Xiong, Bo Leng, Jia Hu, Ilya Kolmanovsky, Dimitar Filev,
- Abstract要約: 自律運転(AD)における運動計画(MoP)課題に対処するための有望なアプローチとして強化学習(RL)が登場した。
RLとADの急速な進歩にもかかわらず、RLの設計プロセスの体系的な記述と解釈はまだ未開発である。
この調査は、タスク固有の視点から学ぶことに焦点を当てた、RLベースのMoP for ADの包括的なレビューを提供する。
- 参考スコア(独自算出の注目度): 12.239468388345747
- License:
- Abstract: Reinforcement learning (RL), with its ability to explore and optimize policies in complex, dynamic decision-making tasks, has emerged as a promising approach to addressing motion planning (MoP) challenges in autonomous driving (AD). Despite rapid advancements in RL and AD, a systematic description and interpretation of the RL design process tailored to diverse driving tasks remains underdeveloped. This survey provides a comprehensive review of RL-based MoP for AD, focusing on lessons from task-specific perspectives. We first outline the fundamentals of RL methodologies, and then survey their applications in MoP, analyzing scenario-specific features and task requirements to shed light on their influence on RL design choices. Building on this analysis, we summarize key design experiences, extract insights from various driving task applications, and provide guidance for future implementations. Additionally, we examine the frontier challenges in RL-based MoP, review recent efforts to addresse these challenges, and propose strategies for overcoming unresolved issues.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、複雑な動的意思決定タスクにおけるポリシーの探索と最適化機能を備えた、自律運転(AD)における運動計画(MoP)課題に対処するための有望なアプローチとして登場した。
RLとADの急速な進歩にもかかわらず、様々な運転タスクに適したRL設計プロセスの体系的な記述と解釈は未開発のままである。
この調査は、タスク固有の視点から学ぶことに焦点を当てた、RLベースのMoP for ADの包括的なレビューを提供する。
まず、RLの方法論の基礎を概説し、その応用をMoPで調査し、シナリオ固有の特徴やタスク要件を分析して、RLの設計選択に対する影響を明らかにします。
この分析に基づいて、重要な設計経験を要約し、様々な駆動タスクアプリケーションから洞察を抽出し、将来の実装のためのガイダンスを提供する。
さらに, RL ベースの MoP のフロンティア課題について検討し, これらの課題に対処するための最近の取り組みを概観し,未解決の問題を克服するための戦略を提案する。
関連論文リスト
- Task Offloading in Vehicular Edge Computing using Deep Reinforcement Learning: A Survey [9.21746609806009]
適応的,リアルタイムな意思決定を通じて計算オフロードを最適化するために,強化学習(RL)と深層強化学習(DRL)フレームワークの可能性を検討する。
本稿では,車載ネットワークにおけるDRLの理解と適用を促進することを目的とした,標準化された学習モデル,最適化された報酬構造,協調型マルチエージェントシステムなどの重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-10T19:02:20Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - Towards Sample-Efficiency and Generalization of Transfer and Inverse Reinforcement Learning: A Comprehensive Literature Review [50.67937325077047]
本稿では,転送および逆強化学習(T-IRL)によるRLアルゴリズムのサンプル効率と一般化を実現するための総合的なレビューを行う。
以上の結果から,最近の研究成果の大部分は,人間のループとシム・トゥ・リアル戦略を活用することで,上記の課題に対処していることが示唆された。
IRL構造の下では、経験の少ない移行と、そのようなフレームワークのマルチエージェントおよびマルチインテンション問題への拡張を必要とするトレーニングスキームが近年研究者の優先事項となっている。
論文 参考訳(メタデータ) (2024-11-15T15:18:57Z) - Sample-Efficient Reinforcement Learning with Temporal Logic Objectives: Leveraging the Task Specification to Guide Exploration [13.053013407015628]
本稿では,不確実な力学を持つシステムに対する最適制御ポリシーの学習問題に対処する。
本稿では,競争的アプローチよりもはるかに高速に制御ポリシーを学習できる高速化されたRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-16T00:53:41Z) - Survey on Large Language Model-Enhanced Reinforcement Learning: Concept, Taxonomy, and Methods [18.771658054884693]
大規模言語モデル(LLM)は、マルチタスク学習、サンプル効率、高レベルのタスク計画といった側面において強化学習(RL)を強化するための有望な道として出現する。
本稿では,情報処理装置,報酬設計装置,意思決定装置,ジェネレータの4つの役割を含む,RLにおけるLLMの機能を体系的に分類する構造的分類法を提案する。
論文 参考訳(メタデータ) (2024-03-30T08:28:08Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - A Survey of Deep Reinforcement Learning Algorithms for Motion Planning
and Control of Autonomous Vehicles [2.7398985365813013]
本稿では,自動運転車の運動計画と制御に強化学習(RL)を適用した研究について,現在の文献を体系的に要約する。
多くの既存のコントリビューションは、手作りのモジュールで構成され、それぞれが人間の解釈の容易さのために選択された機能を持つパイプラインアプローチに起因している。
本稿は、エンド・ツー・エンドのアプローチに該当する作業の増加傾向を示す。
論文 参考訳(メタデータ) (2021-05-29T05:27:07Z) - A Comparative Analysis of Deep Reinforcement Learning-enabled Freeway
Decision-making for Automated Vehicles [2.394554182452767]
人工知能の課題に対処するための強力な方法論として、深層強化学習(DRL)が登場している。
本稿では高速道路における自律走行車による意思決定問題に対するDRLアプローチについて比較する。
これらのDRL対応意思決定戦略の制御性能を評価するために,一連のシミュレーション実験を行った。
論文 参考訳(メタデータ) (2020-08-04T03:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。