論文の概要: DQ-GAT: Towards Safe and Efficient Autonomous Driving with Deep
Q-Learning and Graph Attention Networks
- arxiv url: http://arxiv.org/abs/2108.05030v1
- Date: Wed, 11 Aug 2021 04:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:35:34.395458
- Title: DQ-GAT: Towards Safe and Efficient Autonomous Driving with Deep
Q-Learning and Graph Attention Networks
- Title(参考訳): DQ-GAT: ディープQラーニングとグラフ注意ネットワークによる安全かつ効率的な自動運転を目指して
- Authors: Peide Cai, Hengli Wang, Yuxiang Sun, Ming Liu
- Abstract要約: 従来の計画手法は概ねルールベースであり、複雑な動的シナリオではスケールが不十分である。
スケーラブルでプロアクティブな自動運転を実現するためにDQ-GATを提案する。
我々の手法は、見知らぬシナリオと見えないシナリオの両方において、安全と効率のトレードオフを改善することができる。
- 参考スコア(独自算出の注目度): 12.714551756377265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving in multi-agent and dynamic traffic scenarios is
challenging, where the behaviors of other road agents are uncertain and hard to
model explicitly, and the ego-vehicle should apply complicated negotiation
skills with them to achieve both safe and efficient driving in various
settings, such as giving way, merging and taking turns. Traditional planning
methods are largely rule-based and scale poorly in these complex dynamic
scenarios, often leading to reactive or even overly conservative behaviors.
Therefore, they require tedious human efforts to maintain workability.
Recently, deep learning-based methods have shown promising results with better
generalization capability but less hand engineering effort. However, they are
either implemented with supervised imitation learning (IL) that suffers from
the dataset bias and distribution mismatch problems, or trained with deep
reinforcement learning (DRL) but focus on one specific traffic scenario. In
this work, we propose DQ-GAT to achieve scalable and proactive autonomous
driving, where graph attention-based networks are used to implicitly model
interactions, and asynchronous deep Q-learning is employed to train the network
end-to-end in an unsupervised manner. Extensive experiments through a
high-fidelity driving simulation show that our method can better trade-off
safety and efficiency in both seen and unseen scenarios, achieving higher goal
success rates than the baselines (at most 4.7$\times$) with comparable task
completion time. Demonstration videos are available at
https://caipeide.github.io/dq-gat/.
- Abstract(参考訳): マルチエージェントおよび動的交通シナリオにおける自律運転は、他の道路エージェントの動作が不確実で、明確にモデル化することが困難であり、エゴ車両は、道を譲ったり、マージしたり、ターンを取るといった様々な環境で安全かつ効率的な運転を実現するために、それらと複雑な交渉スキルを適用するべきである。
従来の計画手法は概ねルールベースであり、これらの複雑な動的シナリオではスケールが悪く、しばしば反応性や過度に保守的な振る舞いにつながる。
そのため、作業性を維持するには退屈な人的努力が必要である。
近年、深層学習に基づく手法は、より優れた一般化能力を持つが手作業の少ない有望な結果を示している。
しかし、データセットバイアスや分布ミスマッチの問題に悩まされる教師付き模倣学習(IL)や、深層強化学習(DRL)で訓練される一方、特定のトラフィックシナリオに焦点を当てている。
本研究では,グラフ注意に基づくネットワークを用いて対話を暗黙的にモデル化し,非同期深層学習を用いてネットワークのエンドツーエンドを教師なしで学習する,スケーラブルで積極的な自律運転を実現するためのDQ-GATを提案する。
高忠実度運転シミュレーションによる広範囲な実験により、本手法は、見たシナリオと見えないシナリオの両方において、より良いトレードオフ安全性と効率を示し、同等のタスク完了時間を持つベースライン(最大4.7$\times$)よりも高いゴール成功率を達成できることを示した。
デモビデオはhttps://caipeide.github.io/dq-gat/で見ることができる。
関連論文リスト
- Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - UMBRELLA: Uncertainty-Aware Model-Based Offline Reinforcement Learning
Leveraging Planning [1.1339580074756188]
オフライン強化学習(RL)は、オフラインデータから意思決定を学ぶためのフレームワークを提供する。
自動運転車(SDV)は、おそらく準最適データセットの振る舞いよりも優れるポリシーを学ぶ。
これはモデルベースのオフラインRLアプローチの使用を動機付け、プランニングを活用する。
論文 参考訳(メタデータ) (2021-11-22T10:37:52Z) - Carl-Lead: Lidar-based End-to-End Autonomous Driving with Contrastive
Deep Reinforcement Learning [10.040113551761792]
我々は、ライダーに基づくエンドツーエンドの運転ポリシーのトレーニングに、深層強化学習(DRL)を使用します。
本研究では、DRLを用いて、不完全な部分観察を自然に考慮するライダーベースのエンドツーエンド駆動ポリシーを訓練する。
提案手法は,最新技術(SOTA)によるエンド・ツー・エンド駆動ネットワークよりも高い成功率を達成する。
論文 参考訳(メタデータ) (2021-09-17T11:24:10Z) - Vision-Based Autonomous Car Racing Using Deep Imitative Reinforcement
Learning [13.699336307578488]
深層模倣強化学習(DIRL)は、視覚入力を使用してアジャイルな自律レースを実現する。
我々は,高忠実性運転シミュレーションと実世界の1/20スケールRC-car上での車載計算の制限により,本アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-18T00:00:48Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Multi-task Learning with Attention for End-to-end Autonomous Driving [5.612688040565424]
条件模倣学習フレームワークにおける新しいマルチタスク注意認識ネットワークを提案する。
これにより、標準ベンチマークの成功率を向上させるだけでなく、トラフィックライトに反応する能力も向上します。
論文 参考訳(メタデータ) (2021-04-21T20:34:57Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z) - Multi-Agent Routing Value Iteration Network [88.38796921838203]
疎結合グラフの学習値に基づいてマルチエージェントルーティングを行うことができるグラフニューラルネットワークに基づくモデルを提案する。
最大25ノードのグラフ上で2つのエージェントでトレーニングしたモデルでは,より多くのエージェントやノードを持つ状況に容易に一般化できることが示されている。
論文 参考訳(メタデータ) (2020-07-09T22:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。