論文の概要: GINK: Graph-based Interaction-aware Kinodynamic Planning via
Reinforcement Learning for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2206.01488v1
- Date: Fri, 3 Jun 2022 10:37:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 15:31:37.987997
- Title: GINK: Graph-based Interaction-aware Kinodynamic Planning via
Reinforcement Learning for Autonomous Driving
- Title(参考訳): GINK: 自動走行のための強化学習によるグラフベースインタラクション対応動力学的計画
- Authors: Se-Wook Yoo, Seung-Woo Seo
- Abstract要約: 都市部などの構造環境下での自律運転に深部強化学習(D)を適用するには,多くの課題がある。
本稿では,グラフに基づく意図表現と動的計画のための強化学習を効果的に組み合わせた新しいフレームワークを提案する。
この実験は,既存のベースラインと比較して,我々のアプローチの最先端性能を示すものである。
- 参考スコア(独自算出の注目度): 10.782043595405831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are many challenges in applying deep reinforcement learning (DRL) to
autonomous driving in a structured environment such as an urban area. This is
because the massive traffic flows moving along the road network change
dynamically. It is a key factor to detect changes in the intentions of
surrounding vehicles and quickly find a response strategy. In this paper, we
suggest a new framework that effectively combines graph-based intention
representation learning and reinforcement learning for kinodynamic planning.
Specifically, the movement of dynamic agents is expressed as a graph. The
spatio-temporal locality of node features is conserved and the features are
aggregated by considering the interaction between adjacent nodes. We
simultaneously learn motion planner and controller that share the aggregated
information via a safe RL framework. We intuitively interpret a given situation
with predicted trajectories to generate additional cost signals. The dense cost
signals encourage the policy to be safe for dynamic risk. Moreover, by
utilizing the data obtained through the direct rollout of learned policy,
robust intention inference is achieved for various situations encountered in
training. We set up a navigation scenario in which various situations exist by
using CARLA, an urban driving simulator. The experiments show the
state-of-the-art performance of our approach compared to the existing
baselines.
- Abstract(参考訳): 都市部などの構造環境下での自律運転に深部強化学習(DRL)を適用するには,多くの課題がある。
これは、道路網に沿って移動する大量の交通の流れが動的に変化するためである。
これは、周囲の車両の意図の変化を検出し、迅速に対応戦略を見つけるための重要な要素である。
本稿では,グラフに基づく意図表現学習と強化学習を効率的に組み合わせた新しい枠組みを提案する。
具体的には、動的エージェントの動きをグラフとして表現する。
ノード特徴の時空間的局所性を保存し、隣接ノード間の相互作用を考慮して特徴を集約する。
我々は、安全なRLフレームワークを介して集約された情報を共有するモーションプランナーとコントローラを同時に学習する。
我々は、予測軌跡で与えられた状況を直感的に解釈し、追加のコスト信号を生成する。
高いコスト信号は、ポリシーが動的リスクに対して安全であることを促す。
さらに,学習方針の直接的なロールアウトによって得られたデータを利用することで,学習中のさまざまな状況に対して頑健な意図推論を実現する。
都市運転シミュレータであるCARLAを用いて,様々な状況が存在するナビゲーションシナリオを構築した。
実験では,既存のベースラインと比較して最先端の性能を示す。
関連論文リスト
- End-to-end Driving in High-Interaction Traffic Scenarios with Reinforcement Learning [24.578178308010912]
これらの問題に対処するために,Ranmble というエンドツーエンドモデルベース RL アルゴリズムを提案する。
環境のダイナミックスモデルを学ぶことで、Rambleは今後のトラフィックイベントを予測し、より情報に富んだ戦略的決定を下すことができる。
Rambleは、CARLA Leaderboard 2.0におけるルート完了率と運転スコアに関する最先端のパフォーマンスを達成し、複雑でダイナミックな交通状況を管理する上での有効性を示している。
論文 参考訳(メタデータ) (2024-10-03T06:45:59Z) - Deep Interactive Motion Prediction and Planning: Playing Games with
Motion Prediction Models [162.21629604674388]
本研究は,新しい対話型マルチエージェントニューラルネットワークポリシを予測モデルの一部として使用するゲーム理論モデル予測制御器(MPC)を提案する。
本手法の成功の基礎は,周辺エージェントの状態と地図情報に基づいて車両を操縦できる,新しいマルチエージェントポリシーネットワークの設計である。
論文 参考訳(メタデータ) (2022-04-05T17:58:18Z) - Learning Interactive Driving Policies via Data-driven Simulation [125.97811179463542]
データ駆動シミュレータは、ポリシー学習の駆動に高いデータ効率を約束する。
小さな基盤となるデータセットは、インタラクティブな運転を学ぶための興味深い、挑戦的なエッジケースを欠いていることが多い。
本研究では,ロバストな運転方針の学習に塗装されたアドカーを用いたシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:14:02Z) - Learning Interaction-aware Guidance Policies for Motion Planning in
Dense Traffic Scenarios [8.484564880157148]
本稿では,高密度交通シナリオにおける対話型モーションプランニングのための新しい枠組みを提案する。
我々は,他車両の協調性に関する国際的ガイダンスを提供するインタラクション対応政策であるDeep Reinforcement Learning (RL) を通じて学習することを提案する。
学習されたポリシーは、ローカル最適化ベースのプランナーを推論し、対話的な振る舞いで誘導し、他の車両が収まらない場合に安全を維持しながら、密集したトラフィックに積極的にマージする。
論文 参考訳(メタデータ) (2021-07-09T16:43:12Z) - Autonomous Navigation through intersections with Graph
ConvolutionalNetworks and Conditional Imitation Learning for Self-driving
Cars [10.080958939027363]
自動運転では、信号のない交差点を通るナビゲーションは難しい作業だ。
ナビゲーションポリシー学習のための新しい分岐ネットワークG-CILを提案する。
エンドツーエンドのトレーニング可能なニューラルネットワークは、より高い成功率と短いナビゲーション時間でベースラインを上回っています。
論文 参考訳(メタデータ) (2021-02-01T07:33:12Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z) - An End-to-end Deep Reinforcement Learning Approach for the Long-term
Short-term Planning on the Frenet Space [0.0]
本稿では,自動運転車の意思決定と動作計画に向けた,エンドツーエンドの継続的強化学習手法を提案する。
初めて、Frenet空間上の状態と行動空間の両方を定義して、走行挙動を道路曲率に変化させないようにする。
このアルゴリズムは、フィードバックコントローラが追跡するFrenetフレーム上で連続時間軌道を生成する。
論文 参考訳(メタデータ) (2020-11-26T02:40:07Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - Planning on the fast lane: Learning to interact using attention
mechanisms in path integral inverse reinforcement learning [20.435909887810165]
自動走行のための汎用軌道計画アルゴリズムは複雑な報酬関数を利用する。
深層学習アプローチは局所的な状況依存報酬関数の予測に成功している。
低次元の文脈ベクトルを生成するためにポリシーアテンション機構を用いるニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-07-11T15:25:44Z) - Intelligent Roundabout Insertion using Deep Reinforcement Learning [68.8204255655161]
本稿では,多忙なラウンドアバウンドの入場を交渉できる演習計画モジュールを提案する。
提案されたモジュールは、トレーニングされたニューラルネットワークに基づいて、操作の全期間にわたって、ラウンドアバウンドに入るタイミングと方法を予測する。
論文 参考訳(メタデータ) (2020-01-03T11:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。