論文の概要: CS-Net:Contribution-based Sampling Network for Point Cloud Simplification
- arxiv url: http://arxiv.org/abs/2501.10789v1
- Date: Sat, 18 Jan 2025 14:56:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:22:45.512079
- Title: CS-Net:Contribution-based Sampling Network for Point Cloud Simplification
- Title(参考訳): CS-Net:Point Cloud Simplificationのためのコントリビューションベースサンプリングネットワーク
- Authors: Tian Guo, Chen Chen, Hui Yuan, Xiaolong Mao, Raouf Hamzaoui, Junhui Hou,
- Abstract要約: ポイントクラウドサンプリングは、様々なビジョンタスクの計算コストとストレージ要求を減らす上で重要な役割を果たす。
最遠点サンプリングのような従来のサンプリング手法では、タスク固有の情報が欠落している。
提案手法では, サンプル処理をTop-k操作として定式化したCS-Netを提案する。
- 参考スコア(独自算出の注目度): 50.55658910053004
- License:
- Abstract: Point cloud sampling plays a crucial role in reducing computation costs and storage requirements for various vision tasks. Traditional sampling methods, such as farthest point sampling, lack task-specific information and, as a result, cannot guarantee optimal performance in specific applications. Learning-based methods train a network to sample the point cloud for the targeted downstream task. However, they do not guarantee that the sampled points are the most relevant ones. Moreover, they may result in duplicate sampled points, which requires completion of the sampled point cloud through post-processing techniques. To address these limitations, we propose a contribution-based sampling network (CS-Net), where the sampling operation is formulated as a Top-k operation. To ensure that the network can be trained in an end-to-end way using gradient descent algorithms, we use a differentiable approximation to the Top-k operation via entropy regularization of an optimal transport problem. Our network consists of a feature embedding module, a cascade attention module, and a contribution scoring module. The feature embedding module includes a specifically designed spatial pooling layer to reduce parameters while preserving important features. The cascade attention module combines the outputs of three skip connected offset attention layers to emphasize the attractive features and suppress less important ones. The contribution scoring module generates a contribution score for each point and guides the sampling process to prioritize the most important ones. Experiments on the ModelNet40 and PU147 showed that CS-Net achieved state-of-the-art performance in two semantic-based downstream tasks (classification and registration) and two reconstruction-based tasks (compression and surface reconstruction).
- Abstract(参考訳): ポイントクラウドサンプリングは、様々なビジョンタスクの計算コストとストレージ要求を減らす上で重要な役割を果たす。
最遠点サンプリングのような従来のサンプリング手法では、タスク固有の情報が欠如しており、その結果、特定のアプリケーションにおいて最適な性能を保証できない。
学習ベースのメソッドは、ターゲットとする下流タスクのポイントクラウドをサンプリングするためにネットワークをトレーニングする。
しかし、サンプリングされた点が最も関係のある点であることを保証していない。
さらに、これらはサンプリングされた点を重複させ、後処理技術によってサンプルされた点雲を完了させる必要がある。
これらの制約に対処するために,提案するCS-Net(Contributor-based sample network)を提案し,そこでサンプリング操作をTop-k演算として定式化する。
勾配降下アルゴリズムを用いてネットワークをエンド・ツー・エンドでトレーニングするために,最適輸送問題のエントロピー正規化を通したTop-k演算に対する微分近似を用いる。
ネットワークは,機能埋め込みモジュール,カスケードアテンションモジュール,コントリビューションスコアリングモジュールで構成される。
特徴埋め込みモジュールは、重要な特徴を保持しながらパラメータを減らすために特別に設計された空間プーリング層を含む。
カスケードアテンションモジュールは、3つのスキップ接続されたオフセットアテンション層の出力を組み合わせて、魅力的な特徴を強調し、重要でないものを抑制する。
コントリビューションスコアモジュールは、各ポイントのコントリビューションスコアを生成し、サンプリングプロセスを導出し、最も重要なポイントを優先順位付けする。
ModelNet40とPU147の実験では、CS-Netは2つのセマンティックベース下流タスク(分類と登録)と2つの再構成ベースタスク(圧縮と表面再構成)で最先端のパフォーマンスを達成した。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Parametric Surface Constrained Upsampler Network for Point Cloud [33.033469444588086]
バイコビック関数と回転関数で表されるパラメトリック曲面をニューラルネットワークに学習させ,新しいサーフェス正規化器をアップサンプラーネットワークに導入する。
これらの設計は、2つの異なるネットワークに統合され、レイヤのアップサンプリングの利点を生かしている。
両課題の最先端実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-03-14T21:12:54Z) - OST: Efficient One-stream Network for 3D Single Object Tracking in Point Clouds [6.661881950861012]
本稿では,従来のシームズネットワークで発生した相関操作を回避するために,インスタンスレベルのエンコーディングの強みを活かした新しい一ストリームネットワークを提案する。
提案手法は,クラス固有のトラッキングだけでなく,より少ない計算と高い効率でクラスに依存しないトラッキングを実現する。
論文 参考訳(メタデータ) (2022-10-16T12:31:59Z) - APSNet: Attention Based Point Cloud Sampling [0.7734726150561088]
我々は,この問題に対処するため,アテンションベースのポイントクラウドサンプリングネットワーク(APSNet)を開発した。
APSNetの教師付き学習と知識蒸留に基づく自己教師型学習の両方を提案する。
実験では、様々な下流タスクにおける最先端技術に対するAPSNetの優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-11T17:30:46Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - Meta-Sampler: Almost-Universal yet Task-Oriented Sampling for Point
Clouds [46.33828400918886]
複数のタスクにまたがって、ほぼ普遍的なメタサンプルをトレーニングする方法を示します。
このメタサンプルは、異なるデータセットやネットワーク、あるいは異なるタスクに適用した場合、迅速に微調整できる。
論文 参考訳(メタデータ) (2022-03-30T02:21:34Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - SPU-Net: Self-Supervised Point Cloud Upsampling by Coarse-to-Fine
Reconstruction with Self-Projection Optimization [52.20602782690776]
実際のスキャンされたスパースデータからトレーニング用の大規模なペアリングスパーススキャンポイントセットを得るのは高価で面倒です。
本研究では,SPU-Net と呼ばれる自己監視型点群アップサンプリングネットワークを提案する。
本研究では,合成データと実データの両方について様々な実験を行い,最先端の教師付き手法と同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-08T14:14:09Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。