論文の概要: Allo-centric Occupancy Grid Prediction for Urban Traffic Scene Using
Video Prediction Networks
- arxiv url: http://arxiv.org/abs/2301.04454v1
- Date: Wed, 11 Jan 2023 13:23:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 14:28:11.197509
- Title: Allo-centric Occupancy Grid Prediction for Urban Traffic Scene Using
Video Prediction Networks
- Title(参考訳): 映像予測ネットワークを用いた都市交通シーンのアロ中心交通網予測
- Authors: Rabbia Asghar, Lukas Rummelhard, Anne Spalanzani, Christian Laugier
- Abstract要約: 本稿では,交通シーンを固定フレームで表現することで,長期予測を行う新しい枠組みを提案する。
我々は、異なるビデオ予測ネットワークを用いてアロ中心グリッド予測を調査し、実世界のNuscenesデータセットに対するアプローチを検証する。
- 参考スコア(独自算出の注目度): 7.639067237772287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prediction of dynamic environment is crucial to safe navigation of an
autonomous vehicle. Urban traffic scenes are particularly challenging to
forecast due to complex interactions between various dynamic agents, such as
vehicles and vulnerable road users. Previous approaches have used egocentric
occupancy grid maps to represent and predict dynamic environments. However,
these predictions suffer from blurriness, loss of scene structure at turns, and
vanishing of agents over longer prediction horizon. In this work, we propose a
novel framework to make long-term predictions by representing the traffic scene
in a fixed frame, referred as allo-centric occupancy grid. This allows for the
static scene to remain fixed and to represent motion of the ego-vehicle on the
grid like other agents'. We study the allo-centric grid prediction with
different video prediction networks and validate the approach on the real-world
Nuscenes dataset. The results demonstrate that the allo-centric grid
representation significantly improves scene prediction, in comparison to the
conventional ego-centric grid approach.
- Abstract(参考訳): 動的環境の予測は、自動運転車の安全なナビゲーションに不可欠である。
都市交通シーンは、車両や脆弱な道路利用者など、様々なダイナミックエージェント間の複雑な相互作用のため、特に予測が難しい。
従来のアプローチでは、動的環境の表現と予測にエゴセントリックな占有グリッドマップを使用していた。
しかし、これらの予測はぼやけ、順番にシーン構造が失われ、より長い予測地平線を越えてエージェントの消失に苦しむ。
本研究では,アロ中心の占有グリッドと呼ばれる固定フレーム内のトラヒックシーンを表現し,長期予測を行うための新しい枠組みを提案する。
これにより、静的なシーンを固定し、他のエージェントのようにグリッド上のエゴ車の動きを表現することができる。
我々は、異なるビデオ予測ネットワークを用いてアロ中心グリッド予測を調査し、実世界のNuscenesデータセットに対するアプローチを検証する。
その結果,allo中心のグリッド表現は,従来のego中心のグリッド手法と比較して,シーン予測を大幅に改善することがわかった。
関連論文リスト
- Flow-guided Motion Prediction with Semantics and Dynamic Occupancy Grid Maps [5.9803668726235575]
OGM(Occupancy Grid Maps)は、一般的にシーン予測に使用される。
近年,OGMと深層学習を併用してシーンの進化を予測する手法が研究されている。
我々は,動的なOGMとセマンティック情報を利用して,将来の車両セマンティックグリッドとシーンの将来の流れを予測できる新しいマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-22T14:42:34Z) - PIP-Net: Pedestrian Intention Prediction in the Wild [11.799731429829603]
PIP-Netは、現実の都市シナリオにおいて、AVによる歩行者横断意図を予測するために設計された新しいフレームワークである。
我々は、異なるカメラマウントとセットアップ用に設計された2種類のPIP-Netを提供する。
提案モデルでは、繰り返し時間的注意に基づく解を用いて、最先端の性能を向上する。
最初に、カスタマイズされた歩行者意図予測データセットであるUrban-PIPデータセットを提示する。
論文 参考訳(メタデータ) (2024-02-20T08:28:45Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - Predicting Future Occupancy Grids in Dynamic Environment with
Spatio-Temporal Learning [63.25627328308978]
本稿では,将来の占有予測を生成するための時間的予測ネットワークパイプラインを提案する。
現在のSOTAと比較して、我々の手法は3秒の長い水平線での占有を予測している。
我々は、さらなる研究を支援するために、nulisに基づくグリッド占有データセットを公開します。
論文 参考訳(メタデータ) (2022-05-06T13:45:32Z) - Predicting Vehicles Trajectories in Urban Scenarios with Transformer
Networks and Augmented Information [0.0]
本稿では,トランスフォーマーネットワークに基づく歩行者軌道予測のための単純な構造を利用する。
我々は,最大5秒の地平線における都市シナリオにおける車両軌道予測の問題にそれらの利用を適応させる。
我々のモデルは最先端の成果を達成し、異なるタイプの都市環境に柔軟で適応可能であることを証明している。
論文 参考訳(メタデータ) (2021-06-01T15:18:55Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。