論文の概要: Dynamic 3D Scene Analysis by Point Cloud Accumulation
- arxiv url: http://arxiv.org/abs/2207.12394v1
- Date: Mon, 25 Jul 2022 17:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:07:25.309605
- Title: Dynamic 3D Scene Analysis by Point Cloud Accumulation
- Title(参考訳): 点雲蓄積による動的3次元シーン解析
- Authors: Shengyu Huang, Zan Gojcic, Jiahui Huang, Andreas Wieser, Konrad
Schindler
- Abstract要約: マルチビームLiDARセンサーは、自動運転車や移動ロボットに使われている。
各フレームは、角度のスキャンの解像度と閉塞が制限されているため、わずかにシーンをカバーしている。
本研究では,屋外の街路景観の帰納的バイアスを利用して,その幾何学的レイアウトとオブジェクトレベルの剛性を求める手法を提案する。
- 参考スコア(独自算出の注目度): 32.491921765128936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-beam LiDAR sensors, as used on autonomous vehicles and mobile robots,
acquire sequences of 3D range scans ("frames"). Each frame covers the scene
sparsely, due to limited angular scanning resolution and occlusion. The
sparsity restricts the performance of downstream processes like semantic
segmentation or surface reconstruction. Luckily, when the sensor moves, frames
are captured from a sequence of different viewpoints. This provides
complementary information and, when accumulated in a common scene coordinate
frame, yields a denser sampling and a more complete coverage of the underlying
3D scene. However, often the scanned scenes contain moving objects. Points on
those objects are not correctly aligned by just undoing the scanner's
ego-motion. In the present paper, we explore multi-frame point cloud
accumulation as a mid-level representation of 3D scan sequences, and develop a
method that exploits inductive biases of outdoor street scenes, including their
geometric layout and object-level rigidity. Compared to state-of-the-art scene
flow estimators, our proposed approach aims to align all 3D points in a common
reference frame correctly accumulating the points on the individual objects.
Our approach greatly reduces the alignment errors on several benchmark
datasets. Moreover, the accumulated point clouds benefit high-level tasks like
surface reconstruction.
- Abstract(参考訳): 自動運転車や移動ロボットで使用されるマルチビームLiDARセンサーは、3Dレンジスキャン(フレーム)のシーケンスを取得する。
各フレームは、角走査の解像度と閉塞が制限されたため、シーンをまばらに覆っている。
空間性は、セマンティックセグメンテーションや表面再構成のような下流プロセスのパフォーマンスを制限する。
幸いなことに、センサーが動くと、異なる視点からフレームをキャプチャする。
これは補完的な情報を提供し、共通のシーン座標フレームに蓄積されると、より密集したサンプリングと基礎となる3dシーンのより完全なカバレッジが得られる。
しかし、しばしばスキャンされたシーンは動く物体を含んでいる。
これらのオブジェクトのポイントは、スキャナのエゴモーションを解除することで、正しく一致しない。
本稿では,3次元スキャンシーケンスの中間レベル表現としての多フレーム点雲の蓄積について検討し,その幾何学的レイアウトやオブジェクトレベルの剛性を含む屋外ストリートシーンの帰納バイアスを利用する手法を開発した。
現状のシーンフロー推定器と比較して,提案手法は,各オブジェクト上の点を正確に蓄積する共通参照フレーム内のすべての3D点を整列することを目的としている。
提案手法は,複数のベンチマークデータセットのアライメントエラーを大幅に低減する。
さらに、蓄積されたポイントクラウドは、表面再構築のようなハイレベルなタスクに役立つ。
関連論文リスト
- U3DS$^3$: Unsupervised 3D Semantic Scene Segmentation [19.706172244951116]
本稿では,U3DS$3$について,総合的な3Dシーンに対して,完全に教師なしのポイントクラウドセグメンテーションに向けたステップとして提示する。
提案手法の最初のステップは,各シーンの幾何学的特徴に基づいてスーパーポイントを生成することである。
次に、空間クラスタリングに基づく手法を用いて学習プロセスを行い、次いで、クラスタセントロイドに応じて生成された擬似ラベルを用いて反復的なトレーニングを行う。
論文 参考訳(メタデータ) (2023-11-10T12:05:35Z) - Semantics-aware LiDAR-Only Pseudo Point Cloud Generation for 3D Object
Detection [0.7234862895932991]
近年の進歩は擬似LiDAR、すなわち合成高密度点雲を導入し、カメラなどの追加のモダリティを使って3Dオブジェクト検出を強化している。
我々は,LiDARセンサとシーンセマンティクスに頼って,密度の高い擬似点雲で生スキャンを増強する,新しいLiDAR専用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-16T09:18:47Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - Quadric Representations for LiDAR Odometry, Mapping and Localization [93.24140840537912]
現在のLiDARオードメトリ、マッピング、ローカライズ手法は、3Dシーンのポイントワイズ表現を利用する。
3次元オブジェクトのよりコンパクトな表現である2次元曲面を用いたシーン記述法を提案する。
提案手法は低レイテンシとメモリの有効性を維持しつつ、競争力があり、しかも精度も優れている。
論文 参考訳(メタデータ) (2023-04-27T13:52:01Z) - Tracking by 3D Model Estimation of Unknown Objects in Videos [122.56499878291916]
この表現は限定的であり、代わりに明示的なオブジェクト表現を用いて2次元追跡をガイドし改善することを提案する。
我々の表現は、全てのビデオフレームのオブジェクト上の全ての3Dポイント間の複雑な長期密度対応問題に取り組む。
提案手法は, 最適3次元形状, テクスチャ, 6DoFのポーズを推定するために, 新たな損失関数を最小化する。
論文 参考訳(メタデータ) (2023-04-13T11:32:36Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - Scatter Points in Space: 3D Detection from Multi-view Monocular Images [8.71944437852952]
単眼画像からの3次元物体検出は,コンピュータビジョンの課題であり,長年の課題である。
近年の手法では, 空間に密集した正規3次元格子をサンプリングすることにより, マルチビュー特性を集約する傾向にある。
そこで本研究では,データ空間に擬似曲面点を散布し,データの分散性を維持するための学習可能なキーポイントサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-08-31T09:38:05Z) - PolarMix: A General Data Augmentation Technique for LiDAR Point Clouds [100.03877236181546]
PolarMixは、シンプルで汎用的なポイントクラウド拡張技術である。
様々な3Dディープアーキテクチャのプラグイン・アンド・プレイとして機能し、教師なしのドメイン適応にも適しています。
論文 参考訳(メタデータ) (2022-07-30T13:52:19Z) - HyperDet3D: Learning a Scene-conditioned 3D Object Detector [154.84798451437032]
本研究では3次元物体検出のためのシーン条件付き事前知識を探索するためにHyperDet3Dを提案する。
我々のHyperDet3Dは、ScanNetとSUN RGB-Dデータセットの3Dオブジェクト検出ベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2022-04-12T07:57:58Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。