論文の概要: LOPR: Latent Occupancy PRediction using Generative Models
- arxiv url: http://arxiv.org/abs/2210.01249v2
- Date: Mon, 21 Aug 2023 21:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 15:19:49.120132
- Title: LOPR: Latent Occupancy PRediction using Generative Models
- Title(参考訳): LOPR:ジェネレーティブモデルを用いた潜伏作業適応
- Authors: Bernard Lange, Masha Itkina, Mykel J. Kochenderfer
- Abstract要約: LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
- 参考スコア(独自算出の注目度): 49.15687400958916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Environment prediction frameworks are integral for autonomous vehicles,
enabling safe navigation in dynamic environments. LiDAR generated occupancy
grid maps (L-OGMs) offer a robust bird's eye-view scene representation that
facilitates joint scene predictions without relying on manual labeling unlike
commonly used trajectory prediction frameworks. Prior approaches have optimized
deterministic L-OGM prediction architectures directly in grid cell space. While
these methods have achieved some degree of success in prediction, they
occasionally grapple with unrealistic and incorrect predictions. We claim that
the quality and realism of the forecasted occupancy grids can be enhanced with
the use of generative models. We propose a framework that decouples occupancy
prediction into: representation learning and stochastic prediction within the
learned latent space. Our approach allows for conditioning the model on other
available sensor modalities such as RGB-cameras and high definition maps. We
demonstrate that our approach achieves state-of-the-art performance and is
readily transferable between different robotic platforms on the real-world
NuScenes, Waymo Open, and a custom dataset we collected on an experimental
vehicle platform.
- Abstract(参考訳): 環境予測フレームワークは自動運転車に不可欠なもので、動的環境における安全なナビゲーションを可能にする。
LiDARの生成した占有グリッドマップ(L-OGM)は、一般的に使用される軌道予測フレームワークとは異なり、手動ラベリングに頼ることなく、共同シーンの予測を容易にする堅牢な鳥の目視シーン表現を提供する。
従来のアプローチでは、グリッドセル空間で直接、決定論的L-OGM予測アーキテクチャを最適化していた。
これらの手法は予測においてある程度の成功を収めてきたが、時には非現実的で誤った予測に悩まされる。
予測された占有グリッドの品質とリアリズムは生成モデルを用いて向上できると主張している。
本稿では, 占有率予測を「表現学習」と「確率予測」に分解する枠組みを提案する。
提案手法では,RGBカメラや高精細マップなど,利用可能なセンサモードでモデルを条件付けすることができる。
このアプローチが最先端のパフォーマンスを達成し、実世界の裸眼、waymo open、実験車プラットフォームで収集したカスタムデータセット上で、さまざまなロボットプラットフォーム間で容易に転送できることを実証する。
関連論文リスト
- OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - Self-supervised Multi-future Occupancy Forecasting for Autonomous Driving [45.886941596233974]
LiDARで生成された占有グリッドマップ(L-OGM)は、シーン表現のための頑丈な鳥眼ビューを提供する。
提案するフレームワークは、生成アーキテクチャの潜在空間においてL-OGM予測を行う。
我々は、リアルタイムに高品質な予測を提供するシングルステップデコーダまたは拡散ベースのバッチデコーダを用いて予測をデコードする。
論文 参考訳(メタデータ) (2024-07-30T18:37:59Z) - Vehicle Motion Forecasting using Prior Information and Semantic-assisted
Occupancy Grid Maps [6.99274104609965]
運動は、センサーデータの不確実性、未来の非決定論的性質、複雑な振る舞いによって、自動運転車にとって困難なタスクである。
本稿では,シーンを動的占有グリッドマップ(DOGM)として表現することで,この問題に対処する。
本研究では,車両の挙動を予測するための時間的および確率的アプローチを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-08T14:49:44Z) - Conditioned Human Trajectory Prediction using Iterative Attention Blocks [70.36888514074022]
本研究では,都市環境における歩行者位置予測を目的とした,簡易かつ効果的な歩行者軌道予測モデルを提案する。
我々のモデルは、複数のアテンションブロックとトランスフォーマーを反復的に実行できるニューラルネットワークアーキテクチャである。
ソーシャルマスク, 動的モデル, ソーシャルプーリング層, 複雑なグラフのような構造を明示的に導入することなく, SoTAモデルと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T07:49:48Z) - Predicting Future Occupancy Grids in Dynamic Environment with
Spatio-Temporal Learning [63.25627328308978]
本稿では,将来の占有予測を生成するための時間的予測ネットワークパイプラインを提案する。
現在のSOTAと比較して、我々の手法は3秒の長い水平線での占有を予測している。
我々は、さらなる研究を支援するために、nulisに基づくグリッド占有データセットを公開します。
論文 参考訳(メタデータ) (2022-05-06T13:45:32Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - Spatio-Temporal Graph Dual-Attention Network for Multi-Agent Prediction
and Tracking [23.608125748229174]
異種エージェントを含む多エージェント軌道予測のための汎用生成ニューラルシステムを提案する。
提案システムは, 軌道予測のための3つのベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-02-18T02:25:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。