論文の概要: PredictionNet: Real-Time Joint Probabilistic Traffic Prediction for
Planning, Control, and Simulation
- arxiv url: http://arxiv.org/abs/2109.11094v1
- Date: Thu, 23 Sep 2021 01:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:50:17.665661
- Title: PredictionNet: Real-Time Joint Probabilistic Traffic Prediction for
Planning, Control, and Simulation
- Title(参考訳): predictionnet: 計画・制御・シミュレーションのためのリアルタイム確率的トラヒック予測
- Authors: Alexey Kamenev, Lirui Wang, Ollin Boer Bohan, Ishwar Kulkarni, Bilal
Kartal, Artem Molchanov, Stan Birchfield, David Nist\'er, Nikolai Smolyanskiy
- Abstract要約: PredictionNetはディープニューラルネットワーク(DNN)で、Ego-vehicleの動作とともに、周囲のすべてのトラフィックエージェントの動作を予測する。
このネットワークは現実的なトラフィックをシミュレートするために使用することができ、人気のあるベンチマークで競合する結果を生成する。
現実の車両を何百キロも制御するために、モーションプランニング/制御サブシステムと組み合わせて使用されてきた。
- 参考スコア(独自算出の注目度): 9.750094897470447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting the future motion of traffic agents is crucial for safe and
efficient autonomous driving. To this end, we present PredictionNet, a deep
neural network (DNN) that predicts the motion of all surrounding traffic agents
together with the ego-vehicle's motion. All predictions are probabilistic and
are represented in a simple top-down rasterization that allows an arbitrary
number of agents. Conditioned on a multilayer map with lane information, the
network outputs future positions, velocities, and backtrace vectors jointly for
all agents including the ego-vehicle in a single pass. Trajectories are then
extracted from the output. The network can be used to simulate realistic
traffic, and it produces competitive results on popular benchmarks. More
importantly, it has been used to successfully control a real-world vehicle for
hundreds of kilometers, by combining it with a motion planning/control
subsystem. The network runs faster than real-time on an embedded GPU, and the
system shows good generalization (across sensory modalities and locations) due
to the choice of input representation. Furthermore, we demonstrate that by
extending the DNN with reinforcement learning (RL), it can better handle rare
or unsafe events like aggressive maneuvers and crashes.
- Abstract(参考訳): 交通機関の将来の動きを予測することは安全かつ効率的な自動運転に不可欠である。
この目的のために, ディープニューラルネットワーク(DNN)であるPredictionNetを紹介し, エゴ車両の動きとともに周囲の交通機関の動作を予測する。
すべての予測は確率的であり、任意の数のエージェントを許容する単純なトップダウンラスタ化で表される。
レーン情報付き多層マップに条件付きで、ネットワークは、エゴ車を含む全てのエージェントに対して、将来の位置、速度、バックトレースベクトルを単一のパスで出力する。
その後、トラジェクトリは出力から抽出される。
このネットワークは現実的なトラフィックをシミュレートするために使用することができ、人気のあるベンチマークで競合する結果を生成する。
さらに重要なことは、現実の車両を数百kmにわたって制御するために、モーションプランニング/コントロールサブシステムと組み合わせて使用されてきたことだ。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、システムは入力表現の選択により、優れた一般化(官能的なモダリティと位置)を示す。
さらに、強化学習(RL)でDNNを拡張することで、アグレッシブな操作やクラッシュといったレアまたはアンセーフなイベントをよりうまく処理できることを示す。
関連論文リスト
- Planning with Adaptive World Models for Autonomous Driving [50.4439896514353]
運動プランナー(MP)は複雑な都市環境における安全なナビゲーションに不可欠である。
最近リリースされたMPベンチマークであるnuPlanは、クローズドループシミュレーションロジックで現実世界の駆動ログを拡張することで、この制限に対処している。
本稿では,モデル予測制御(MPC)ベースのプランナであるAdaptiveDriverを提案する。
論文 参考訳(メタデータ) (2024-06-15T18:53:45Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - TSGN: Temporal Scene Graph Neural Networks with Projected Vectorized
Representation for Multi-Agent Motion Prediction [2.5780349894383807]
TSGNは、全てのエージェントに対するマルチモーダルな将来の軌跡を、妥当かつ正確に同時に予測することができる。
エージェントと道路ネットワーク間の相互作用を捉える階層型レーン変換器を提案する。
実験により、TSGNはArgoverse運動予測ベンチマーで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2023-05-14T15:58:55Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Exploring Attention GAN for Vehicle Motion Prediction [2.887073662645855]
身体的・社会的文脈を考慮した動き予測モデルにおける注意の影響について検討した。
本稿では,Argoverse Motion Forecasting Benchmark 1.1 を用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T13:18:32Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z) - Probabilistic Crowd GAN: Multimodal Pedestrian Trajectory Prediction
using a Graph Vehicle-Pedestrian Attention Network [12.070251470948772]
本稿では,確率的集団GANが確率的マルチモーダル予測をどうやって生成できるかを示す。
ソーシャルインタラクションをモデル化するグラフ車両歩行者注意ネットワーク(GVAT)も提案する。
本研究では,軌道予測手法の既存の状況の改善を実証し,集団間相互作用の真のマルチモーダル性と不確実性を直接モデル化する方法について述べる。
論文 参考訳(メタデータ) (2020-06-23T11:25:16Z) - Traffic Flow Forecast of Road Networks with Recurrent Neural Networks [0.0]
効率的なインテリジェント交通システムには交通流の予測が不可欠である。
本研究では, 様々なリカレントニューラルネットワークを用いて, この予測を行う。
多くの場合、ゲート再帰単位を持つベクトル出力モデルは、テストセット上で最小の誤差を達成した。
論文 参考訳(メタデータ) (2020-06-08T15:17:58Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z) - SCALE-Net: Scalable Vehicle Trajectory Prediction Network under Random
Number of Interacting Vehicles via Edge-enhanced Graph Convolutional Neural
Network [15.916040656243858]
最初の完全にスケーラブルな軌道予測ネットワークであるSCALE-Netが提案されている。
車両数に関係なく高い予測性能と一貫した計算負荷を確保することができる。
論文 参考訳(メタデータ) (2020-02-28T09:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。