論文の概要: ROAD: Responsibility-Oriented Reward Design for Reinforcement Learning in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2505.24317v1
- Date: Fri, 30 May 2025 08:00:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.839899
- Title: ROAD: Responsibility-Oriented Reward Design for Reinforcement Learning in Autonomous Driving
- Title(参考訳): ROAD:自律運転における強化学習のための責任指向リワード設計
- Authors: Yongming Chen, Miner Chen, Liewen Liao, Mingyang Jiang, Xiang Zuo, Hengrui Zhang, Yuchen Xi, Songan Zhang,
- Abstract要約: 本研究では,交通規制を具体化する責任指向報酬関数をReinforcement Learningフレームワークに導入する。
本稿では,交通規制知識グラフを導入し,視覚・言語モデルと検索・拡張生成手法を併用して報酬の割り当てを自動化する。
- 参考スコア(独自算出の注目度): 6.713954449470747
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reinforcement learning (RL) in autonomous driving employs a trial-and-error mechanism, enhancing robustness in unpredictable environments. However, crafting effective reward functions remains challenging, as conventional approaches rely heavily on manual design and demonstrate limited efficacy in complex scenarios. To address this issue, this study introduces a responsibility-oriented reward function that explicitly incorporates traffic regulations into the RL framework. Specifically, we introduced a Traffic Regulation Knowledge Graph and leveraged Vision-Language Models alongside Retrieval-Augmented Generation techniques to automate reward assignment. This integration guides agents to adhere strictly to traffic laws, thus minimizing rule violations and optimizing decision-making performance in diverse driving conditions. Experimental validations demonstrate that the proposed methodology significantly improves the accuracy of assigning accident responsibilities and effectively reduces the agent's liability in traffic incidents.
- Abstract(参考訳): 自動運転における強化学習(Reinforcement Learning, RL)は、予測不可能な環境での堅牢性を高めるための試行錯誤機構を採用している。
しかし、従来の手法は手動設計に大きく依存し、複雑なシナリオにおいて限られた有効性を示すため、効果的な報酬関数の作成は依然として困難である。
この問題に対処するために、交通規制をRLフレームワークに明示的に組み込んだ責任指向報酬関数を導入する。
具体的には,交通規制知識グラフを導入し,視覚・言語モデルと検索・拡張生成手法を併用して報酬の割り当てを自動化する。
この統合により、エージェントは交通法を厳格に遵守し、ルール違反を最小限に抑え、多様な運転条件における意思決定性能を最適化する。
実験により,提案手法は事故責任の割り当て精度を大幅に向上し,交通事故におけるエージェントの責任を効果的に低減することを示した。
関連論文リスト
- Automatic Curriculum Learning for Driving Scenarios: Towards Robust and Efficient Reinforcement Learning [11.602831593017427]
本稿では、強化学習(RL)を用いたエンドツーエンド自動運転エージェントの訓練の課題について述べる。
RLエージェントは通常、シミュレーションにおいて周囲の道路利用者の一定のシナリオと名目上の振る舞いで訓練される。
本稿では,エージェントの進化能力に基づいて,適応性のある複雑な運転シナリオを動的に生成する自動カリキュラム学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T06:26:57Z) - Balancing Progress and Safety: A Novel Risk-Aware Objective for RL in Autonomous Driving [10.950036191948605]
強化学習(Reinforcement Learning, RL)は、堅牢な意思決定能力によって自律運転を実現するための有望なアプローチである。
本稿では,2次元楕円形関数に基づく各種駆動相互作用に対するリスク認識手法を提案する。
交通密度の異なる無署名の交差点シナリオにおいて,提案した報奨の有効性を評価する。
論文 参考訳(メタデータ) (2025-05-10T19:05:03Z) - Towards a Reward-Free Reinforcement Learning Framework for Vehicle Control [1.5883812630616523]
強化学習は、最適な制御戦略を学ぶためのエージェントを導くことによって、車両制御において重要な役割を担っている。
車両制御アプリケーションでは、通常、報酬は複数の暗黙的要因を考慮して手動で設計する必要がある。
本稿では,これらの問題に対処するためのRFRLF(Regend-free Regressed Learning framework)を提案する。
論文 参考訳(メタデータ) (2025-02-21T07:43:24Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - GARLIC: GPT-Augmented Reinforcement Learning with Intelligent Control for Vehicle Dispatching [81.82487256783674]
GARLIC: GPT拡張強化学習のフレームワーク。
本稿では,GPT強化強化学習とインテリジェント制御のフレームワークであるGARLICについて紹介する。
論文 参考訳(メタデータ) (2024-08-19T08:23:38Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Reinforcement Learning with Model Predictive Control for Highway Ramp Metering [14.389086937116582]
この研究は、交通フロー管理を強化するためのモデルベースと学習ベースの戦略の相乗効果について考察する。
制御問題は、適切なステージコスト関数を作成することにより、RLタスクとして定式化される。
RLアルゴリズムの関数近似として MPC 最適問題を利用する MPC ベースの RL アプローチを提案し,オンランプの効率的な制御について検討した。
論文 参考訳(メタデータ) (2023-11-15T09:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。