論文の概要: FPPN: Future Pseudo-LiDAR Frame Prediction for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2112.04401v1
- Date: Wed, 8 Dec 2021 16:46:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 14:38:39.148577
- Title: FPPN: Future Pseudo-LiDAR Frame Prediction for Autonomous Driving
- Title(参考訳): fppn:自動運転のための疑似ライダーフレーム予測
- Authors: Xudong Huang, Chunyu Lin, Haojie Liu, Lang Nie and Yao Zhao
- Abstract要約: 本稿では,最初の疑似LiDARフレーム予測ネットワークを提案する。
まず、ダイナミックな動き情報に基づいて、将来的な深度マップを粗大に予測する。
我々は静的な文脈情報を用いて予測された深度マップを精査する。
将来の擬似LiDARフレームは、予測された高密度深度マップを対応する3D点雲に変換することで得ることができる。
- 参考スコア(独自算出の注目度): 30.18167579599365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR sensors are widely used in autonomous driving due to the reliable 3D
spatial information. However, the data of LiDAR is sparse and the frequency of
LiDAR is lower than that of cameras. To generate denser point clouds spatially
and temporally, we propose the first future pseudo-LiDAR frame prediction
network. Given the consecutive sparse depth maps and RGB images, we first
predict a future dense depth map based on dynamic motion information coarsely.
To eliminate the errors of optical flow estimation, an inter-frame aggregation
module is proposed to fuse the warped depth maps with adaptive weights. Then,
we refine the predicted dense depth map using static contextual information.
The future pseudo-LiDAR frame can be obtained by converting the predicted dense
depth map into corresponding 3D point clouds. Experimental results show that
our method outperforms the existing solutions on the popular KITTI benchmark.
- Abstract(参考訳): LiDARセンサは、信頼性の高い3次元空間情報により、自律走行に広く利用されている。
しかし、LiDARのデータは希少であり、LiDARの周波数はカメラよりも低い。
空間的・時間的に高密度な点雲を生成するために,第1次擬似LiDARフレーム予測ネットワークを提案する。
連続したスパース深度マップとrgb画像から,まず,動的動き情報に基づく将来の濃厚深度マップを粗く予測する。
光フロー推定の誤差を解消するため, 歪んだ深度マップを適応重みで融合させるために, フレーム間アグリゲーションモジュールを提案する。
そして静的な文脈情報を用いて予測された深度マップを精査する。
将来の擬似LiDARフレームは、予測された高密度深度マップを対応する3D点雲に変換することで得ることができる。
実験の結果,本手法はkittiベンチマークの既存ソリューションよりも優れていた。
関連論文リスト
- OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Efficient Stereo Depth Estimation for Pseudo LiDAR: A Self-Supervised
Approach Based on Multi-Input ResNet Encoder [0.0]
本稿では,レーザセンサの代わりにリアルタイムの擬似点雲を画像センサから取得する手法を提案する。
異なる深さ推定器を用いて,LiDARのような擬似点雲を取得し,より良い性能を得るアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-17T04:42:13Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - Self-supervised Point Cloud Prediction Using 3D Spatio-temporal
Convolutional Networks [27.49539859498477]
未来の点雲を予測するために、過去の3D LiDARスキャンをエクスプロイトすることは、自律的なモバイルシステムにとって有望な方法である。
本稿では,各3次元LiDARスキャンの2次元範囲画像表現を利用したエンドツーエンドアプローチを提案する。
我々は3次元畳み込みを用いたエンコーダデコーダアーキテクチャを開発し、シーンの空間情報と時間情報を共同で集約する。
論文 参考訳(メタデータ) (2021-09-28T19:58:13Z) - Advancing Self-supervised Monocular Depth Learning with Sparse LiDAR [22.202192422883122]
本稿では,自己教師付き単分子深度学習を推進するための2段階ネットワークを提案する。
本モデルでは,単色画像特徴と疎LiDAR特徴を融合させて初期深度マップを推定する。
我々のモデルは、下流タスクのモノクロ3Dオブジェクト検出において、最先端のスパース-LiDAR法(Pseudo-LiDAR++)を68%以上向上させる。
論文 参考訳(メタデータ) (2021-09-20T15:28:36Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。