論文の概要: Hybrid Action Based Reinforcement Learning for Multi-Objective Compatible Autonomous Driving
- arxiv url: http://arxiv.org/abs/2501.08096v3
- Date: Tue, 19 Aug 2025 16:41:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 14:45:44.247932
- Title: Hybrid Action Based Reinforcement Learning for Multi-Objective Compatible Autonomous Driving
- Title(参考訳): 多目的対応型自律運転のためのハイブリッド行動に基づく強化学習
- Authors: Guizhe Jin, Zhuoren Li, Bo Leng, Wei Han, Lu Xiong, Chen Sun,
- Abstract要約: マルチオブジェクト対応自律運転のためのハイブリッドパラメタライズアクションを用いた多目的アンサンブル・クリティカル強化学習法を提案する。
実験により,シミュレータベースと高次元データセットベースの両方のマルチレーンハイウェイシナリオにおいて,本手法は多目的対応ポリシーを効率的に学習することを示した。
- 参考スコア(独自算出の注目度): 9.39122455540358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning (RL) has shown excellent performance in solving decision-making and control problems of autonomous driving, which is increasingly applied in diverse driving scenarios. However, driving is a multi-attribute problem, leading to challenges in achieving multi-objective compatibility for current RL methods, especially in both policy updating and policy execution. On the one hand, a single value evaluation network limits the policy updating in complex scenarios with coupled driving objectives. On the other hand, the common single-type action space structure limits driving flexibility or results in large behavior fluctuations during policy execution. To this end, we propose a Multi-objective Ensemble-Critic reinforcement learning method with Hybrid Parametrized Action for multi-objective compatible autonomous driving. Specifically, an advanced MORL architecture is constructed, in which the ensemble-critic focuses on different objectives through independent reward functions. The architecture integrates a hybrid parameterized action space structure, and the generated driving actions contain both abstract guidance that matches the hybrid road modality and concrete control commands. Additionally, an uncertainty-based exploration mechanism that supports hybrid actions is developed to learn multi-objective compatible policies more quickly. Experimental results demonstrate that, in both simulator-based and HighD dataset-based multi-lane highway scenarios, our method efficiently learns multi-objective compatible autonomous driving with respect to efficiency, action consistency, and safety.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、自律運転における意思決定と制御の問題の解決において優れた性能を示しており、多様な運転シナリオにますます適用されている。
しかし、運転は多属性問題であり、特にポリシー更新とポリシー実行の両面で、現在のRLメソッドの多目的互換性を実現する上での課題に繋がる。
一方、単一価値評価ネットワークは、複雑なシナリオにおけるポリシー更新を、複合的な駆動目標によって制限する。
一方、一般的なシングルタイプアクション空間構造は、フレキシビリティを駆動したり、ポリシー実行中に大きな振舞いを生じさせる。
そこで本研究では,多目的自律運転のためのハイブリッドパラメタライズアクションを用いた多目的アンサンブル・クライブ強化学習法を提案する。
具体的には、高度なMORLアーキテクチャを構築し、アンサンブル批判は独立報酬関数を通して異なる目的に焦点を当てる。
アーキテクチャは、ハイブリッドパラメータ化されたアクション空間構造を統合し、生成された駆動動作は、ハイブリッド道路のモダリティと具体的な制御コマンドに一致する抽象的なガイダンスの両方を含む。
さらに、ハイブリッドアクションをサポートする不確実性に基づく探索機構を開発し、より迅速に多目的互換ポリシーを学習する。
実験結果から,シミュレータベースおよび高次元データセットを用いた多車線高速道路のシナリオにおいて,効率,動作の整合性,安全性に関して,多目的の自律運転を効率的に学習できることが示唆された。
関連論文リスト
- Action Space Reduction Strategies for Reinforcement Learning in Autonomous Driving [0.0]
強化学習(RL)は自動運転のための有望なフレームワークを提供する。
きめ細かい制御を支援するためにしばしば使われる大型で高次元のアクションスペースは、訓練の効率を阻害し、探査コストを増大させる。
我々は、自律運転におけるRLのための2つの新しい構造化された行動空間修正戦略を導入し、評価する。
論文 参考訳(メタデータ) (2025-07-07T17:58:08Z) - Multi-Timescale Hierarchical Reinforcement Learning for Unified Behavior and Control of Autonomous Driving [4.750705843012836]
自律運転のための多段階階層型強化学習手法を提案する。
高レベルかつ低レベルなRLポリシーは、長期動作誘導と短時間制御コマンドを生成するために統一的に訓練される。
提案手法はAD性能を大幅に向上させ,運転効率,動作の整合性,安全性を効果的に向上させる。
論文 参考訳(メタデータ) (2025-06-30T12:17:42Z) - TeLL-Drive: Enhancing Autonomous Driving with Teacher LLM-Guided Deep Reinforcement Learning [61.33599727106222]
TeLL-Driveは、Teacher LLMを統合して、注意に基づく学生DRLポリシーをガイドするハイブリッドフレームワークである。
自己維持機構はDRLエージェントの探索とこれらの戦略を融合させ、政策収束を加速し、堅牢性を高める。
論文 参考訳(メタデータ) (2025-02-03T14:22:03Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - CIMRL: Combining IMitation and Reinforcement Learning for Safe Autonomous Driving [45.05135725542318]
CIMRL(imitation and Reinforcement Learning)アプローチは、模倣動作の先行と安全性の制約を活用することで、シミュレーションにおける運転ポリシーのトレーニングを可能にする。
RLと模倣を組み合わせることで, クローズドループシミュレーションと実世界の運転ベンチマークにおいて, 最先端の結果が得られたことを実証する。
論文 参考訳(メタデータ) (2024-06-13T07:31:29Z) - Parameterized Decision-making with Multi-modal Perception for Autonomous
Driving [12.21578713219778]
AUTOと呼ばれる深層強化学習に基づくマルチモーダル認識を用いたパラメータ化意思決定フレームワークを提案する。
ハイブリッド報酬関数は、安全、交通効率、乗客の快適性、および最適な行動を生成するためのフレームワークを導く影響を考慮に入れている。
論文 参考訳(メタデータ) (2023-12-19T08:27:02Z) - Multi-Agent Deep Reinforcement Learning for Cooperative and Competitive
Autonomous Vehicles using AutoDRIVE Ecosystem [1.1893676124374688]
我々は、ニジェールとF1TENTHの物理的に正確でグラフィカルなデジタル双対を開発するために、AutoDRIVE Ecosystemを導入する。
まず,複数エージェントの学習環境だけでなく,限られた状態情報を相互に共有する一組の協調車両(Nigel)を用いた交差点問題について検討する。
次に、異なる車両群(F1TENTH)を用いて、個別のポリシーアプローチを用いたマルチエージェント学習環境において、対向的なヘッドツーヘッド自律レース問題を調査する。
論文 参考訳(メタデータ) (2023-09-18T02:43:59Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Behaviorally Diverse Traffic Simulation via Reinforcement Learning [16.99423598448411]
本稿では,自律運転エージェントのための簡易なポリシー生成アルゴリズムを提案する。
提案アルゴリズムは,深層強化学習の表現能力と探索能力を活用することで,多様性と運転能力のバランスをとる。
本手法の有効性を,いくつかの挑戦的な交差点シーンにおいて実験的に示す。
論文 参考訳(メタデータ) (2020-11-11T12:49:11Z) - MIDAS: Multi-agent Interaction-aware Decision-making with Adaptive
Strategies for Urban Autonomous Navigation [22.594295184455]
そこで本研究では,エゴエージェントが他車の制御動作に影響を与えることを学習する,MIDASと呼ばれる強化学習手法を構築した。
MIDAS は広範にわたる実験により検証され,(i) 異なる道路測地をまたいで動作可能であること,(ii) 外部エージェントの駆動方針の変化に対して堅牢であること,(iv) インタラクション対応意思決定に対する既存のアプローチよりも効率的で安全であること,などが示されている。
論文 参考訳(メタデータ) (2020-08-17T04:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。