論文の概要: Hybrid Action Based Reinforcement Learning for Multi-Objective Compatible Autonomous Driving
- arxiv url: http://arxiv.org/abs/2501.08096v1
- Date: Tue, 14 Jan 2025 13:10:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:26:03.433895
- Title: Hybrid Action Based Reinforcement Learning for Multi-Objective Compatible Autonomous Driving
- Title(参考訳): 多目的対応型自律運転のためのハイブリッド行動に基づく強化学習
- Authors: Guizhe Jin, Zhuoren Li, Bo Leng, Wei Han, Lu Xiong, Chen Sun,
- Abstract要約: 強化学習(Reinforcement Learning, RL)は, 自律運転における意思決定と制御の問題を解く上で, 優れた性能を示した。
ドライビングは多属性問題であり、現在のRL法における多目的互換性を実現する上での課題となっている。
マルチオブジェクト対応自律運転のためのハイブリッドパラメタライズアクションを用いた多目的アンサンブル・クリティカル強化学習法を提案する。
- 参考スコア(独自算出の注目度): 9.39122455540358
- License:
- Abstract: Reinforcement Learning (RL) has shown excellent performance in solving decision-making and control problems of autonomous driving, which is increasingly applied in diverse driving scenarios. However, driving is a multi-attribute problem, leading to challenges in achieving multi-objective compatibility for current RL methods, especially in both policy execution and policy iteration. On the one hand, the common action space structure with single action type limits driving flexibility or results in large behavior fluctuations during policy execution. On the other hand, the multi-attribute weighted single reward function result in the agent's disproportionate attention to certain objectives during policy iterations. To this end, we propose a Multi-objective Ensemble-Critic reinforcement learning method with Hybrid Parametrized Action for multi-objective compatible autonomous driving. Specifically, a parameterized action space is constructed to generate hybrid driving actions, combining both abstract guidance and concrete control commands. A multi-objective critics architecture is constructed considering multiple attribute rewards, to ensure simultaneously focusing on different driving objectives. Additionally, uncertainty-based exploration strategy is introduced to help the agent faster approach viable driving policy. The experimental results in both the simulated traffic environment and the HighD dataset demonstrate that our method can achieve multi-objective compatible autonomous driving in terms of driving efficiency, action consistency, and safety. It enhances the general performance of the driving while significantly increasing training efficiency.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、自律運転における意思決定と制御の問題の解決において優れた性能を示しており、多様な運転シナリオにますます適用されている。
しかし、運転は多属性問題であり、特に政策実行と政策反復の両面で、現在のRLメソッドの多目的互換性を実現する上での課題に繋がる。
一方、単一のアクション型制限を持つ共通アクション空間構造は、柔軟性を駆動したり、ポリシー実行中に大きな振る舞いの変動を引き起こす。
一方、重み付き単報酬関数は、政策反復中の特定の目的に対するエージェントの不均等な注意をもたらす。
そこで本研究では,多目的自律運転のためのハイブリッドパラメタライズアクションを用いた多目的アンサンブル・クライブ強化学習法を提案する。
具体的には、パラメータ化されたアクション空間を構築し、抽象的なガイダンスと具体的な制御コマンドを組み合わせたハイブリッド駆動アクションを生成する。
複数の属性報酬を考慮した多目的批評家アーキテクチャを構築し、異なる駆動目標に同時に焦点を合わせる。
さらに不確実性に基づく探索戦略を導入し、エージェントが実行可能な運転ポリシーに迅速にアプローチできるようにする。
シミュレーションされた交通環境とHighDデータセットによる実験結果から,運転効率,動作の整合性,安全性の両面から,多目的の自律運転を実現することができることが示された。
これにより、トレーニング効率を大幅に向上させながら、駆動の一般性能を高めることができる。
関連論文リスト
- Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - Parameterized Decision-making with Multi-modal Perception for Autonomous
Driving [12.21578713219778]
AUTOと呼ばれる深層強化学習に基づくマルチモーダル認識を用いたパラメータ化意思決定フレームワークを提案する。
ハイブリッド報酬関数は、安全、交通効率、乗客の快適性、および最適な行動を生成するためのフレームワークを導く影響を考慮に入れている。
論文 参考訳(メタデータ) (2023-12-19T08:27:02Z) - Multi-Agent Deep Reinforcement Learning for Cooperative and Competitive
Autonomous Vehicles using AutoDRIVE Ecosystem [1.1893676124374688]
我々は、ニジェールとF1TENTHの物理的に正確でグラフィカルなデジタル双対を開発するために、AutoDRIVE Ecosystemを導入する。
まず,複数エージェントの学習環境だけでなく,限られた状態情報を相互に共有する一組の協調車両(Nigel)を用いた交差点問題について検討する。
次に、異なる車両群(F1TENTH)を用いて、個別のポリシーアプローチを用いたマルチエージェント学習環境において、対向的なヘッドツーヘッド自律レース問題を調査する。
論文 参考訳(メタデータ) (2023-09-18T02:43:59Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Evaluating the Robustness of Deep Reinforcement Learning for Autonomous
Policies in a Multi-agent Urban Driving Environment [3.8073142980733]
視覚に基づく自律運転における深層強化学習の比較のためのベンチマークフレームワークを提案する。
この実験は、視覚のみの高忠実度都市運転模擬環境で実施する。
その結果, 深層強化学習アルゴリズムのいくつかは, シングルエージェントとマルチエージェントのシナリオで一貫した性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2021-12-22T15:14:50Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Behaviorally Diverse Traffic Simulation via Reinforcement Learning [16.99423598448411]
本稿では,自律運転エージェントのための簡易なポリシー生成アルゴリズムを提案する。
提案アルゴリズムは,深層強化学習の表現能力と探索能力を活用することで,多様性と運転能力のバランスをとる。
本手法の有効性を,いくつかの挑戦的な交差点シーンにおいて実験的に示す。
論文 参考訳(メタデータ) (2020-11-11T12:49:11Z) - MIDAS: Multi-agent Interaction-aware Decision-making with Adaptive
Strategies for Urban Autonomous Navigation [22.594295184455]
そこで本研究では,エゴエージェントが他車の制御動作に影響を与えることを学習する,MIDASと呼ばれる強化学習手法を構築した。
MIDAS は広範にわたる実験により検証され,(i) 異なる道路測地をまたいで動作可能であること,(ii) 外部エージェントの駆動方針の変化に対して堅牢であること,(iv) インタラクション対応意思決定に対する既存のアプローチよりも効率的で安全であること,などが示されている。
論文 参考訳(メタデータ) (2020-08-17T04:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。