論文の概要: Enhancing Sampling Protocol for Robust Point Cloud Classification
- arxiv url: http://arxiv.org/abs/2408.12062v1
- Date: Thu, 22 Aug 2024 01:48:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 15:33:26.031168
- Title: Enhancing Sampling Protocol for Robust Point Cloud Classification
- Title(参考訳): ロバストポイントクラウド分類のためのサンプリングプロトコルの強化
- Authors: Chongshou Li, Pin Tang, Xinke Li, Tianrui Li,
- Abstract要約: 実世界のデータは、現在のプロトコルにおける点雲の良性の仮定に反するセンサノイズなど、しばしば干渉に悩まされる。
1)キーポイント識別のためのダウンサンプリング,2)フレキシブルなサンプルサイズのためのリサンプリングの2つのコンポーネントからなるポイントクラウドサンプリングプロトコルであるポイントDRを提案する。
- 参考スコア(独自算出の注目度): 7.6224558218559855
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Established sampling protocols for 3D point cloud learning, such as Farthest Point Sampling (FPS) and Fixed Sample Size (FSS), have long been recognized and utilized. However, real-world data often suffer from corrputions such as sensor noise, which violates the benignness assumption of point cloud in current protocols. Consequently, they are notably vulnerable to noise, posing significant safety risks in critical applications like autonomous driving. To address these issues, we propose an enhanced point cloud sampling protocol, PointDR, which comprises two components: 1) Downsampling for key point identification and 2) Resampling for flexible sample size. Furthermore, differentiated strategies are implemented for training and inference processes. Particularly, an isolation-rated weight considering local density is designed for the downsampling method, assisting it in performing random key points selection in the training phase and bypassing noise in the inference phase. A local-geometry-preserved upsampling is incorporated into resampling, facilitating it to maintain a stochastic sample size in the training stage and complete insufficient data in the inference. It is crucial to note that the proposed protocol is free of model architecture altering and extra learning, thus minimal efforts are demanded for its replacement of the existing one. Despite the simplicity, it substantially improves the robustness of point cloud learning, showcased by outperforming the state-of-the-art methods on multiple benchmarks of corrupted point cloud classification. The code will be available upon the paper's acceptance.
- Abstract(参考訳): Farthest Point Smpling (FPS) や Fixed Sample Size (FSS) などの3Dポイント・クラウド・ラーニングのためのサンプリング・プロトコルは、長い間認識され、利用されてきた。
しかし、実世界のデータは、現在のプロトコルにおける点雲の良性の仮定に反するセンサノイズのような余計な問題に悩まされることが多い。
その結果、これらは特に騒音に弱いため、自動運転のような重要なアプリケーションにおいて、重大な安全性のリスクが生じる。
これらの問題に対処するために,2つのコンポーネントからなるポイントクラウドサンプリングプロトコルであるPointDRを提案する。
1)キーポイント識別及びダウンサンプリング
2) フレキシブルサンプルサイズに対するリサンプリング。
さらに、訓練と推論のプロセスのために異なる戦略が実装されている。
特に、局所密度を考慮した孤立度重みをダウンサンプリング法のために設計し、トレーニングフェーズでランダムなキーポイント選択を行い、推論フェーズでノイズを回避できるようにする。
局所幾何保存アップサンプリングは再サンプリングに組み込まれ、トレーニング段階で確率的なサンプルサイズを維持し、推論において不十分なデータを完備する。
提案プロトコルはモデルアーキテクチャの変更や余分な学習が不要であることに注意する必要がある。
単純さにもかかわらず、これはポイントクラウド学習の堅牢性を大幅に改善し、破損したポイントクラウド分類の複数のベンチマークで最先端の手法よりも優れていることを示した。
コードは論文の受理時に入手できます。
関連論文リスト
- Learning Continuous Implicit Field with Local Distance Indicator for
Arbitrary-Scale Point Cloud Upsampling [55.05706827963042]
点雲アップサンプリングは、疎点雲から密度が高く均一に分散した点集合を生成することを目的としている。
従来のメソッドは通常、スパースポイントクラウドをいくつかのローカルパッチ、アップサンプルパッチポイント、すべてのアップサンプルパッチにマージする。
そこで本研究では,点雲のアップサンプリングのために,局所的な先行者によって導かれる符号のない距離場を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-23T01:52:14Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Grad-PU: Arbitrary-Scale Point Cloud Upsampling via Gradient Descent
with Learned Distance Functions [77.32043242988738]
我々は、任意のアップサンプリングレートをサポートする、正確なポイントクラウドアップサンプリングのための新しいフレームワークを提案する。
提案手法は,まず,所定のアップサンプリング率に応じて低解像度の雲を補間する。
論文 参考訳(メタデータ) (2023-04-24T06:36:35Z) - AU-PD: An Arbitrary-size and Uniform Downsampling Framework for Point
Clouds [6.786701761788659]
我々はAU-PDという新しいタスク対応サンプリングフレームワークを導入し、ポイントクラウドを直接小さなサイズにダウンサンプルする。
私たちは、ダウンストリームタスクの損失によって引き起こされるタスク認識を実現するために、プリサンプルセットを洗練します。
注意機構と適切なトレーニングスキームにより、フレームワークは異なるサイズのプリサンプルセットを適応的に洗練することを学ぶ。
論文 参考訳(メタデータ) (2022-11-02T13:37:16Z) - PCB-RandNet: Rethinking Random Sampling for LIDAR Semantic Segmentation
in Autonomous Driving Scene [15.516687293651795]
大規模LiDAR点雲のセマンティックセグメンテーションのための新しいポーラシリンダバランスランダムサンプリング法を提案する。
さらに,セグメント化性能を向上し,異なるサンプリング法下でのモデルのばらつきを低減するため,サンプリング一貫性損失が導入された。
提案手法は,SemanticKITTIベンチマークとSemanticPOSSベンチマークの両方で優れた性能を示し,それぞれ2.8%と4.0%の改善を実現している。
論文 参考訳(メタデータ) (2022-09-28T02:59:36Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - PC2-PU: Patch Correlation and Position Correction for Effective Point
Cloud Upsampling [12.070762117164092]
点雲アップサンプリングは、3Dセンサーから取得したスパース点を密度化することである。
既存の方法は単一のパッチ上でアップサンプリングを行い、表面全体のコヒーレンスと関係を無視している。
本稿では,より堅牢で改良された性能を実現するために,より効率的な点群アップサンプリング法を提案する。
論文 参考訳(メタデータ) (2021-09-20T07:40:20Z) - PointLIE: Locally Invertible Embedding for Point Cloud Sampling and
Recovery [35.353458457283544]
ポイントクラウドサンプリングとリカバリ(PCSR)は、大規模なリアルタイムクラウド収集と処理に不可欠である。
ポイントクラウド適応型サンプリング・リカバリのためのローカル・インバータブル・エンベディング(PointLIE)を提案する。
PointLIEは、双方向学習を通じて、ポイントクラウドサンプリングと1つのフレームワークへのアップサンプリングを統一する。
論文 参考訳(メタデータ) (2021-04-30T05:55:59Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。