論文の概要: Self-supervised Point Cloud Prediction Using 3D Spatio-temporal
Convolutional Networks
- arxiv url: http://arxiv.org/abs/2110.04076v1
- Date: Tue, 28 Sep 2021 19:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 16:20:44.846759
- Title: Self-supervised Point Cloud Prediction Using 3D Spatio-temporal
Convolutional Networks
- Title(参考訳): 3次元時空間畳み込みネットワークを用いた自己監督点雲予測
- Authors: Benedikt Mersch, Xieyuanli Chen, Jens Behley, Cyrill Stachniss
- Abstract要約: 未来の点雲を予測するために、過去の3D LiDARスキャンをエクスプロイトすることは、自律的なモバイルシステムにとって有望な方法である。
本稿では,各3次元LiDARスキャンの2次元範囲画像表現を利用したエンドツーエンドアプローチを提案する。
我々は3次元畳み込みを用いたエンコーダデコーダアーキテクチャを開発し、シーンの空間情報と時間情報を共同で集約する。
- 参考スコア(独自算出の注目度): 27.49539859498477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exploiting past 3D LiDAR scans to predict future point clouds is a promising
method for autonomous mobile systems to realize foresighted state estimation,
collision avoidance, and planning. In this paper, we address the problem of
predicting future 3D LiDAR point clouds given a sequence of past LiDAR scans.
Estimating the future scene on the sensor level does not require any preceding
steps as in localization or tracking systems and can be trained
self-supervised. We propose an end-to-end approach that exploits a 2D range
image representation of each 3D LiDAR scan and concatenates a sequence of range
images to obtain a 3D tensor. Based on such tensors, we develop an
encoder-decoder architecture using 3D convolutions to jointly aggregate spatial
and temporal information of the scene and to predict the future 3D point
clouds. We evaluate our method on multiple datasets and the experimental
results suggest that our method outperforms existing point cloud prediction
architectures and generalizes well to new, unseen environments without
additional fine-tuning. Our method operates online and is faster than the
common LiDAR frame rate of 10 Hz.
- Abstract(参考訳): 過去の3dlidarスキャンを利用して将来のポイントクラウドを予測することは、自律的なモバイルシステムが予測可能な状態推定、衝突回避、計画を実現する有望な方法である。
本稿では,過去のLiDARスキャンを用いて,将来の3次元LiDAR点雲の予測問題に対処する。
センサレベルの将来のシーンを推定するには、ローカライゼーションやトラッキングシステムのような前のステップを必要とせず、自己管理できる。
本稿では,各3次元lidarスキャンの2次元範囲画像表現を活用し,各範囲画像のシーケンスを結合して3次元テンソルを得るエンドツーエンド手法を提案する。
このようなテンソルに基づいて、3次元畳み込みを用いたエンコーダデコーダアーキテクチャを構築し、シーンの空間的・時間的情報を共同で集約し、将来の3次元点雲を予測する。
提案手法を複数データセット上で評価し,提案手法が既存のポイントクラウド予測アーキテクチャを上回っており,追加の微調整をすることなく,新たな未知環境によく適用できることを示す。
提案手法はオンラインで動作し,通常のLiDARフレームレート10Hzより高速である。
関連論文リスト
- OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - FPPN: Future Pseudo-LiDAR Frame Prediction for Autonomous Driving [30.18167579599365]
本稿では,最初の疑似LiDARフレーム予測ネットワークを提案する。
まず、ダイナミックな動き情報に基づいて、将来的な深度マップを粗大に予測する。
我々は静的な文脈情報を用いて予測された深度マップを精査する。
将来の擬似LiDARフレームは、予測された高密度深度マップを対応する3D点雲に変換することで得ることができる。
論文 参考訳(メタデータ) (2021-12-08T16:46:18Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - Anchor-Based Spatial-Temporal Attention Convolutional Networks for
Dynamic 3D Point Cloud Sequences [20.697745449159097]
動的3次元点雲列を処理するために,アンカー型時空間注意畳み込み演算(astaconv)を提案する。
提案する畳み込み操作は、各点の周囲に複数の仮想アンカーを設定することにより、各点の周囲にレギュラーレセプティブフィールドを構築する。
提案手法は,局所領域内の構造化情報をよりよく活用し,動的3次元点雲列から空間-時間埋め込み特徴を学習する。
論文 参考訳(メタデータ) (2020-12-20T07:35:37Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - 3DMotion-Net: Learning Continuous Flow Function for 3D Motion Prediction [12.323767993152968]
本研究では,従来の2つの連続したフレームから3次元物体の3次元運動を予測する問題に対処する。
本稿では,ディープニューラルネットワークのパワーを活用して3次元点雲の連続流れ関数を学習する自己教師型アプローチを提案する。
D-FAUST,SCAPE,TOSCAベンチマークデータセットについて広範な実験を行い,本手法が時間的に一貫性のない入力を処理可能であることを示す。
論文 参考訳(メタデータ) (2020-06-24T17:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。