論文の概要: Adaptive Point Transformer
- arxiv url: http://arxiv.org/abs/2401.14845v1
- Date: Fri, 26 Jan 2024 13:24:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:01:33.379855
- Title: Adaptive Point Transformer
- Title(参考訳): 適応点変換器
- Authors: Alessandro Baiocchi, Indro Spinelli, Alessandro Nicolosi, Simone
Scardapane
- Abstract要約: Adaptive Point Cloud Transformer (AdaPT) は、適応トークン選択機構によって強化された標準PTモデルである。
AdaPTは推論中のトークン数を動的に削減し、大きな点雲の効率的な処理を可能にする。
- 参考スコア(独自算出の注目度): 88.28498667506165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent surge in 3D data acquisition has spurred the development of
geometric deep learning models for point cloud processing, boosted by the
remarkable success of transformers in natural language processing. While point
cloud transformers (PTs) have achieved impressive results recently, their
quadratic scaling with respect to the point cloud size poses a significant
scalability challenge for real-world applications. To address this issue, we
propose the Adaptive Point Cloud Transformer (AdaPT), a standard PT model
augmented by an adaptive token selection mechanism. AdaPT dynamically reduces
the number of tokens during inference, enabling efficient processing of large
point clouds. Furthermore, we introduce a budget mechanism to flexibly adjust
the computational cost of the model at inference time without the need for
retraining or fine-tuning separate models. Our extensive experimental
evaluation on point cloud classification tasks demonstrates that AdaPT
significantly reduces computational complexity while maintaining competitive
accuracy compared to standard PTs. The code for AdaPT is made publicly
available.
- Abstract(参考訳): 最近の3Dデータ取得の急増は、自然言語処理におけるトランスフォーマーの顕著な成功により、ポイントクラウド処理のための幾何学的ディープラーニングモデルの開発を加速させた。
ポイントクラウドトランスフォーマー(pts)は近年、素晴らしい成果を上げているが、ポイントクラウドサイズに対する2次スケーリングは、現実のアプリケーションにとって大きなスケーラビリティの課題となっている。
本稿では,適応トークン選択機構によって拡張された標準PTモデルであるAdaptive Point Cloud Transformer (AdaPT)を提案する。
AdaPTは推論中のトークン数を動的に削減し、大きな点雲の効率的な処理を可能にする。
さらに,モデルの再学習や微調整を必要とせずに,推論時にモデルの計算コストを柔軟に調整するための予算機構を導入する。
ポイントクラウド分類タスクを広範囲に評価した結果,標準ptsに比べて計算複雑性が大幅に低減され,計算精度が向上した。
AdaPTのコードは公開されている。
関連論文リスト
- CloudFixer: Test-Time Adaptation for 3D Point Clouds via Diffusion-Guided Geometric Transformation [33.07886526437753]
実世界のセンサーから捉えた3Dポイントの雲は、様々な障害物のためにしばしばノイズの多い点を包含する。
これらの課題は、クリーンポイントクラウドでトレーニングされたトレーニング済みのポイントクラウド認識モデルのデプロイを妨げる。
本研究では,3次元点雲に適したテスト時間入力適応法であるCloudFixerを提案する。
論文 参考訳(メタデータ) (2024-07-23T05:35:04Z) - PointRWKV: Efficient RWKV-Like Model for Hierarchical Point Cloud Learning [56.14518823931901]
NLP分野におけるRWKVモデルから導かれる線形複雑性のモデルであるPointRWKVを提案する。
まず,改良型マルチヘッド行列値状態を用いて,PointRWKVブロック内のグローバル処理機能について検討する。
局所的な幾何学的特徴を同時に抽出するために,グラフ安定化器を用いた固定半径近傍グラフにおいて,点雲を効率的に符号化する並列分岐を設計する。
論文 参考訳(メタデータ) (2024-05-24T05:02:51Z) - Instance-aware Dynamic Prompt Tuning for Pre-trained Point Cloud Models [64.49254199311137]
本稿では,事前学習点クラウドモデルのための新しいインスタンス対応動的プロンプトチューニング(IDPT)戦略を提案する。
IDPTの本質は、各ポイントクラウドインスタンスのセマンティックな事前特徴を知覚する動的プロンプト生成モジュールを開発することである。
実験では、IDPTはトレーニング可能なパラメータのわずか7%で、ほとんどのタスクにおいて完全な微調整よりも優れています。
論文 参考訳(メタデータ) (2023-04-14T16:03:09Z) - AdaPoinTr: Diverse Point Cloud Completion with Adaptive Geometry-Aware
Transformers [94.11915008006483]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々は、ポイントクラウド補完のためにTransformerエンコーダデコーダアーキテクチャを採用したPoinTrと呼ばれる新しいモデルを設計する。
本手法は,PCNで6.53 CD,ShapeNet-55で0.81 CD,現実世界のKITTIで0.392 MMDを実現する。
論文 参考訳(メタデータ) (2023-01-11T16:14:12Z) - Point-BERT: Pre-training 3D Point Cloud Transformers with Masked Point
Modeling [104.82953953453503]
BERTの概念を3Dポイントクラウドに一般化するための新しいパラダイムであるPoint-BERTを提案する。
提案したBERTスタイルの事前学習戦略は,標準点クラウドトランスフォーマーの性能を著しく向上することを示す実験である。
論文 参考訳(メタデータ) (2021-11-29T18:59:03Z) - Point Cloud Augmentation with Weighted Local Transformations [14.644850090688406]
本稿では,ポイントクラウド拡張のためのポイントWOLFという,シンプルで効果的な拡張手法を提案する。
提案手法は, 複数のアンカー点を中心とする局所重み付け変換により, 滑らかに変化する非剛性変形を生成する。
AugTuneは、目標とする信頼性スコアを生成するために、望ましい課題の強化されたサンプルを生成する。
論文 参考訳(メタデータ) (2021-10-11T16:11:26Z) - PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers [81.71904691925428]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々はまた、ポイントクラウド補完のためにトランスフォーマーエンコーダデコーダアーキテクチャを採用するPoinTrと呼ばれる新しいモデルも設計している。
提案手法は,新しいベンチマークと既存ベンチマークの両方において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T17:58:56Z) - Pct: Point cloud transformer [35.34343810480954]
本稿では,ポイントクラウド学習のための新しいフレームワークであるpoint cloud transformerを提案する。
PCTはTransformerをベースにしており、自然言語処理で大きな成功を収めています。
本質的には、一連のポイントを処理するための順列不変であり、ポイントクラウド学習に適している。
論文 参考訳(メタデータ) (2020-12-17T15:55:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。