論文の概要: SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving
- arxiv url: http://arxiv.org/abs/2102.09883v1
- Date: Fri, 19 Feb 2021 11:56:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 13:39:24.669135
- Title: SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving
- Title(参考訳): SLPC: 自律運転における確率的ライダー予測と完了のためのVRNNベースのアプローチ
- Authors: George Eskandar, Alexander Braun, Martin Meinke, Karim Armanious, Bin
Yang
- Abstract要約: VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
- 参考スコア(独自算出の注目度): 63.87272273293804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting future 3D LiDAR pointclouds is a challenging task that is useful
in many applications in autonomous driving such as trajectory prediction, pose
forecasting and decision making. In this work, we propose a new LiDAR
prediction framework that is based on generative models namely Variational
Recurrent Neural Networks (VRNNs), titled Stochastic LiDAR Prediction and
Completion (SLPC). Our algorithm is able to address the limitations of previous
video prediction frameworks when dealing with sparse data by spatially
inpainting the depth maps in the upcoming frames. Our contributions can thus be
summarized as follows: we introduce the new task of predicting and completing
depth maps from spatially sparse data, we present a sparse version of VRNNs and
an effective self-supervised training method that does not require any labels.
Experimental results illustrate the effectiveness of our framework in
comparison to the state of the art methods in video prediction.
- Abstract(参考訳): 将来の3D LiDARポイントクラウドの予測は、軌道予測やポーズ予測、意思決定といった自律運転における多くのアプリケーションで有用な課題である。
本研究では,Stochastic LiDAR Prediction and Completion (SLPC) と題する,変動リカレントニューラルネットワーク(VRNN) と呼ばれる生成モデルに基づく新たなLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
空間的に疎いデータから深度マップを予測・完成する新たなタスクを導入し,VRNNのスパースバージョンとラベルを必要としない効果的な自己教師型トレーニング方法を提案する。
実験結果から,映像予測における工法と比較し,本フレームワークの有効性が示唆された。
関連論文リスト
- OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - Self-supervised Multi-future Occupancy Forecasting for Autonomous Driving [45.886941596233974]
LiDARで生成された占有グリッドマップ(L-OGM)は、シーン表現のための頑丈な鳥眼ビューを提供する。
提案するフレームワークは、生成アーキテクチャの潜在空間においてL-OGM予測を行う。
我々は、リアルタイムに高品質な予測を提供するシングルステップデコーダまたは拡散ベースのバッチデコーダを用いて予測をデコードする。
論文 参考訳(メタデータ) (2024-07-30T18:37:59Z) - GRANP: A Graph Recurrent Attentive Neural Process Model for Vehicle Trajectory Prediction [3.031375888004876]
車両軌道予測のためのGRANP(Graph Recurrent Attentive Neural Process)という新しいモデルを提案する。
GRANPには、決定論的パスと遅延パスを持つエンコーダと、予測のためのデコーダが含まれている。
我々は,GRANPが最先端の結果を達成し,不確実性を効率的に定量化できることを示す。
論文 参考訳(メタデータ) (2024-04-09T05:51:40Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Autoregressive Uncertainty Modeling for 3D Bounding Box Prediction [63.3021778885906]
3Dバウンディングボックスは、多くのコンピュータビジョンアプリケーションで広く使われている中間表現である。
本稿では,自己回帰モデルを利用して高い信頼度予測と意味のある不確実性対策を行う手法を提案する。
我々はシミュレーションデータセットであるCOB-3Dをリリースし、現実世界のロボティクスアプリケーションで発生する新しいタイプのあいまいさを強調します。
論文 参考訳(メタデータ) (2022-10-13T23:57:40Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - PePScenes: A Novel Dataset and Baseline for Pedestrian Action Prediction
in 3D [10.580548257913843]
nuScenesにフレーム毎の2D/3Dバウンディングボックスと動作アノテーションを追加して作成された新しい歩行者行動予測データセットを提案する。
また,歩行者横断行動予測のための様々なデータモダリティを組み込んだハイブリッドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-14T18:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。