論文の概要: APSNet: Attention Based Point Cloud Sampling
- arxiv url: http://arxiv.org/abs/2210.05638v1
- Date: Tue, 11 Oct 2022 17:30:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 16:38:35.505058
- Title: APSNet: Attention Based Point Cloud Sampling
- Title(参考訳): APSNet: 注意ベースのポイントクラウドサンプリング
- Authors: Yang Ye and Xiulong Yang and Shihao Ji
- Abstract要約: 我々は,この問題に対処するため,アテンションベースのポイントクラウドサンプリングネットワーク(APSNet)を開発した。
APSNetの教師付き学習と知識蒸留に基づく自己教師型学習の両方を提案する。
実験では、様々な下流タスクにおける最先端技術に対するAPSNetの優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Processing large point clouds is a challenging task. Therefore, the data is
often downsampled to a smaller size such that it can be stored, transmitted and
processed more efficiently without incurring significant performance
degradation. Traditional task-agnostic sampling methods, such as farthest point
sampling (FPS), do not consider downstream tasks when sampling point clouds,
and thus non-informative points to the tasks are often sampled. This paper
explores a task-oriented sampling for 3D point clouds, and aims to sample a
subset of points that are tailored specifically to a downstream task of
interest. Similar to FPS, we assume that point to be sampled next should depend
heavily on the points that have already been sampled. We thus formulate point
cloud sampling as a sequential generation process, and develop an
attention-based point cloud sampling network (APSNet) to tackle this problem.
At each time step, APSNet attends to all the points in a cloud by utilizing the
history of previously sampled points, and samples the most informative one.
Both supervised learning and knowledge distillation-based self-supervised
learning of APSNet are proposed. Moreover, joint training of APSNet over
multiple sample sizes is investigated, leading to a single APSNet that can
generate arbitrary length of samples with prominent performances. Extensive
experiments demonstrate the superior performance of APSNet against
state-of-the-arts in various downstream tasks, including 3D point cloud
classification, reconstruction, and registration.
- Abstract(参考訳): 大きなポイントのクラウドを処理するのは難しい作業です。
そのため、大きな性能劣化を招くことなく、保存、送信、処理をより効率的に行えるように、データはより小さなサイズに縮小されることが多い。
従来のタスクに依存しないサンプリング手法、例えばfarthest point sampling (fps)は、サンプリングポイントクラウドのダウンストリームタスクを考慮せず、タスクの非インフォーマティブなポイントはしばしばサンプリングされる。
本稿では,3次元点雲のタスク指向サンプリングについて検討し,特に下流の課題に適した点のサブセットをサンプリングすることを目的とする。
fpsと同様に、次にサンプリングされるポイントは、既にサンプリング済みのポイントに大きく依存するべきだと仮定します。
そこで我々は,ポイントクラウドサンプリングを逐次生成プロセスとして定式化し,注意に基づくポイントクラウドサンプリングネットワーク(apsnet)を開発した。
各段階において、APSNetは、以前にサンプリングされたポイントの履歴を利用して、クラウドのすべてのポイントに参加し、最も有益なポイントをサンプリングする。
APSNetの教師付き学習と知識蒸留に基づく自己教師型学習の両方を提案する。
さらに、複数のサンプルサイズにわたるAPSNetのジョイントトレーニングを調査し、顕著なパフォーマンスで任意の長さのサンプルを生成できる単一のAPSNetを実現した。
大規模な実験は、3Dポイントクラウドの分類、再構築、登録など、さまざまなダウンストリームタスクにおける最先端タスクに対するAPSNetの優れたパフォーマンスを示す。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Test-Time Augmentation for 3D Point Cloud Classification and
Segmentation [40.62640761825697]
データ拡張は、ディープラーニングタスクのパフォーマンスを向上させるための強力なテクニックである。
本研究は,3次元点雲に対するTTA(Test-time augmentation)について検討する。
論文 参考訳(メタデータ) (2023-11-22T04:31:09Z) - Attention-based Point Cloud Edge Sampling [0.0]
ポイントクラウドサンプリングは、このデータ表現に関して、あまり調査されていない研究トピックである。
本稿では,非生成的注意に基づくポイントクラウドエッジサンプリング法(APES)を提案する。
定性的および定量的な実験結果から, 一般的なベンチマークタスクにおいて, サンプリング手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-28T15:36:17Z) - AU-PD: An Arbitrary-size and Uniform Downsampling Framework for Point
Clouds [6.786701761788659]
我々はAU-PDという新しいタスク対応サンプリングフレームワークを導入し、ポイントクラウドを直接小さなサイズにダウンサンプルする。
私たちは、ダウンストリームタスクの損失によって引き起こされるタスク認識を実現するために、プリサンプルセットを洗練します。
注意機構と適切なトレーニングスキームにより、フレームワークは異なるサイズのプリサンプルセットを適応的に洗練することを学ぶ。
論文 参考訳(メタデータ) (2022-11-02T13:37:16Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Meta-Sampler: Almost-Universal yet Task-Oriented Sampling for Point
Clouds [46.33828400918886]
複数のタスクにまたがって、ほぼ普遍的なメタサンプルをトレーニングする方法を示します。
このメタサンプルは、異なるデータセットやネットワーク、あるいは異なるタスクに適用した場合、迅速に微調整できる。
論文 参考訳(メタデータ) (2022-03-30T02:21:34Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Beyond Farthest Point Sampling in Point-Wise Analysis [52.218037492342546]
本稿では,ポイントワイズ分析タスクのための新しいデータ駆動型サンプル学習手法を提案する。
我々はサンプルと下流のアプリケーションを共同で学習する。
実験により, 従来のベースライン法に比べて, サンプルとタスクの同時学習が顕著に改善することが示された。
論文 参考訳(メタデータ) (2021-07-09T08:08:44Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。