論文の概要: PolarMix: A General Data Augmentation Technique for LiDAR Point Clouds
- arxiv url: http://arxiv.org/abs/2208.00223v1
- Date: Sat, 30 Jul 2022 13:52:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 12:48:53.548364
- Title: PolarMix: A General Data Augmentation Technique for LiDAR Point Clouds
- Title(参考訳): PolarMix: LiDARポイントクラウドのための汎用データ拡張技術
- Authors: Aoran Xiao, Jiaxing Huang, Dayan Guan, Kaiwen Cui, Shijian Lu, Ling
Shao
- Abstract要約: PolarMixは、シンプルで汎用的なポイントクラウド拡張技術である。
様々な3Dディープアーキテクチャのプラグイン・アンド・プレイとして機能し、教師なしのドメイン適応にも適しています。
- 参考スコア(独自算出の注目度): 100.03877236181546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR point clouds, which are usually scanned by rotating LiDAR sensors
continuously, capture precise geometry of the surrounding environment and are
crucial to many autonomous detection and navigation tasks. Though many 3D deep
architectures have been developed, efficient collection and annotation of large
amounts of point clouds remain one major challenge in the analytic and
understanding of point cloud data. This paper presents PolarMix, a point cloud
augmentation technique that is simple and generic but can mitigate the data
constraint effectively across different perception tasks and scenarios.
PolarMix enriches point cloud distributions and preserves point cloud fidelity
via two cross-scan augmentation strategies that cut, edit, and mix point clouds
along the scanning direction. The first is scene-level swapping which exchanges
point cloud sectors of two LiDAR scans that are cut along the azimuth axis. The
second is instance-level rotation and paste which crops point instances from
one LiDAR scan, rotates them by multiple angles (to create multiple copies),
and paste the rotated point instances into other scans. Extensive experiments
show that PolarMix achieves superior performance consistently across different
perception tasks and scenarios. In addition, it can work as plug-and-play for
various 3D deep architectures and also performs well for unsupervised domain
adaptation.
- Abstract(参考訳): LiDARの点雲は通常、LiDARセンサーを連続的に回転させてスキャンされるが、周囲の環境の正確な形状を捉え、多くの自律的な検出とナビゲーションのタスクに不可欠である。
多くの3Dディープアーキテクチャが開発されているが、大量のポイントクラウドの効率的な収集とアノテーションは、ポイントクラウドデータの分析と理解において大きな課題である。
本稿では,様々な知覚タスクやシナリオにおいてデータ制約を効果的に緩和することのできる,単純かつ汎用的なポイントクラウド拡張手法であるpolarmixを提案する。
polarmixはポイントクラウドのディストリビューションを強化し、スキャン方向に沿ってポイントクラウドをカット、編集、ミックスする2つのクロススキャン拡張戦略によってポイントクラウドの忠実性を維持する。
1つ目は、方位軸に沿って切断された2つのLiDARスキャンの点雲セクターを交換するシーンレベルのスワップである。
2つ目はインスタンスレベルの回転とペーストで、1つのLiDARスキャンからポイントインスタンスをトリミングし、複数の角度で回転させ(複数のコピーを生成する)、回転したポイントインスタンスを他のスキャンにペーストする。
広範な実験により、polarmixは様々な知覚タスクとシナリオにおいて一貫して優れたパフォーマンスを達成していることが示された。
さらに、様々な3Dディープアーキテクチャのプラグイン・アンド・プレイとして機能し、教師なしドメイン適応にも適している。
関連論文リスト
- Simultaneous Diffusion Sampling for Conditional LiDAR Generation [24.429704313319398]
本稿では,シーンの3次元構造に条件付き点雲を生成するための同時拡散サンプリング手法を提案する。
提案手法は, 高精度で幾何的に一貫した拡張をクラウドスキャンに向けることができ, 様々なベンチマークにおいて, 既存の手法よりも優れた性能が得られる。
論文 参考訳(メタデータ) (2024-10-15T14:15:04Z) - P2P-Bridge: Diffusion Bridges for 3D Point Cloud Denoising [81.92854168911704]
私たちは、Diffusion Schr"odingerブリッジをポイントクラウドに適応させる新しいフレームワークを通じて、ポイントクラウドを飾るタスクに取り組みます。
オブジェクトデータセットの実験では、P2P-Bridgeは既存のメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-08-29T08:00:07Z) - Leveraging Single-View Images for Unsupervised 3D Point Cloud Completion [53.93172686610741]
Cross-PCCは3次元完全点雲を必要としない教師なしの点雲補完法である。
2次元画像の相補的な情報を活用するために,単視点RGB画像を用いて2次元特徴を抽出する。
我々の手法は、いくつかの教師付き手法に匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2022-12-01T15:11:21Z) - Dynamic 3D Scene Analysis by Point Cloud Accumulation [32.491921765128936]
マルチビームLiDARセンサーは、自動運転車や移動ロボットに使われている。
各フレームは、角度のスキャンの解像度と閉塞が制限されているため、わずかにシーンをカバーしている。
本研究では,屋外の街路景観の帰納的バイアスを利用して,その幾何学的レイアウトとオブジェクトレベルの剛性を求める手法を提案する。
論文 参考訳(メタデータ) (2022-07-25T17:57:46Z) - Sparse Fuse Dense: Towards High Quality 3D Detection with Depth
Completion [31.52721107477401]
現在のLiDARのみの3D検出方法は、必然的に点雲の間隔に悩まされる。
本稿では,奥行き完了から発生する疑似点雲を利用した,新しいマルチモーダルフレームワークSFD(Sparse Fuse Dense)を提案する。
本手法は, SFD の有効性を実証し, 3D オブジェクト検出リーダボードのKITTI カーにおける最上位項目を保持する。
論文 参考訳(メタデータ) (2022-03-18T07:56:35Z) - CrossPoint: Self-Supervised Cross-Modal Contrastive Learning for 3D
Point Cloud Understanding [2.8661021832561757]
CrossPointは、転送可能な3Dポイントクラウド表現を学習するための、単純なクロスモーダルコントラスト学習アプローチである。
提案手法は,従来の教師なし学習手法よりも,3次元オブジェクト分類やセグメンテーションなど,さまざまな下流タスクにおいて優れていた。
論文 参考訳(メタデータ) (2022-03-01T18:59:01Z) - Deep Point Cloud Reconstruction [74.694733918351]
3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T07:53:28Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。