論文の概要: Purge-Gate: Backpropagation-Free Test-Time Adaptation for Point Clouds Classification via Token Purging
- arxiv url: http://arxiv.org/abs/2509.09785v1
- Date: Thu, 11 Sep 2025 18:33:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.891611
- Title: Purge-Gate: Backpropagation-Free Test-Time Adaptation for Point Clouds Classification via Token Purging
- Title(参考訳): Purge-Gate: トークン購入によるポイントクラウド分類のためのバックプロパゲーションフリーテスト時間適応
- Authors: Moslem Yazdanpanah, Ali Bahri, Mehrdad Noori, Sahar Dastani, Gustavo Adolfo Vargas Hakim, David Osowiechi, Ismail Ben Ayed, Christian Desrosiers,
- Abstract要約: Token Purging (PG) はバックプロパゲーションフリーのアプローチで、注意層に到達する前にドメインシフトの影響が大きいトークンを取り除く。
我々は、ソース統計を利用するPG-SPと、CLS-token-driven adaptationに依存する完全ソースフリーバージョンPG-SFの2つのバリエーションを提案する。
PG-SPは最先端のバックプロパゲーションフリーメソッドよりも平均+10.3%高い精度を達成し、PG-SFはソースフリー適応のための新しいベンチマークを設定できる。
- 参考スコア(独自算出の注目度): 33.86980091897939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test-time adaptation (TTA) is crucial for mitigating performance degradation caused by distribution shifts in 3D point cloud classification. In this work, we introduce Token Purging (PG), a novel backpropagation-free approach that removes tokens highly affected by domain shifts before they reach attention layers. Unlike existing TTA methods, PG operates at the token level, ensuring robust adaptation without iterative updates. We propose two variants: PG-SP, which leverages source statistics, and PG-SF, a fully source-free version relying on CLS-token-driven adaptation. Extensive evaluations on ModelNet40-C, ShapeNet-C, and ScanObjectNN-C demonstrate that PG-SP achieves an average of +10.3\% higher accuracy than state-of-the-art backpropagation-free methods, while PG-SF sets new benchmarks for source-free adaptation. Moreover, PG is 12.4 times faster and 5.5 times more memory efficient than our baseline, making it suitable for real-world deployment. Code is available at \hyperlink{https://github.com/MosyMosy/Purge-Gate}{https://github.com/MosyMosy/Purge-Gate}
- Abstract(参考訳): テスト時間適応(TTA)は,3次元点雲分類における分布変化による性能劣化を緩和するために重要である。
本研究では,注目層に到達する前に,ドメインシフトの影響が大きいトークンを除去する,新しいバックプロパゲーションフリーアプローチであるToken Purging(PG)を紹介する。
既存のTTAメソッドとは異なり、PGはトークンレベルで動作し、反復的な更新なしに堅牢な適応を保証する。
我々は、ソース統計を利用するPG-SPと、CLS-token-driven adaptationに依存する完全ソースフリーバージョンPG-SFの2つのバリエーションを提案する。
ModelNet40-C、ShapeNet-C、ScanObjectNN-Cの大規模な評価では、PG-SPは最先端のバックプロパゲーションフリーメソッドよりも平均+10.3%高い精度を達成でき、PG-SFはソースフリー適応のための新しいベンチマークを設定できる。
さらにPGはベースラインの12.4倍、メモリ効率は5.5倍で、実際のデプロイメントに適している。
コードは \hyperlink{https://github.com/MosyMosy/Purge-Gate}{https://github.com/MosyMosy/Purge-Gate} で公開されている。
関連論文リスト
- SMART-PC: Skeletal Model Adaptation for Robust Test-Time Training in Point Clouds [18.33878596057853]
テストタイムトレーニング(TTT)は,3Dポイントクラウド分類における分散シフトに対処する,有望なソリューションとして登場した。
SMART-PCは, 3次元点雲の幾何学的構造を活用することで, 破損に対するレジリエンスを高めるスケルトンベースのフレームワークである。
論文 参考訳(メタデータ) (2025-05-26T06:11:02Z) - ReservoirTTA: Prolonged Test-time Adaptation for Evolving and Recurring Domains [17.357842682605185]
ReservoirTTAは、長期間のテスト時間適応のために設計された新しいプラグインフレームワークである。
中心となるReservoirTTAはドメイン特化モデルの貯水池を維持している。
理論的解析により,パラメータの分散を束縛し,モデル崩壊を防ぐ重要な要素が明らかになった。
論文 参考訳(メタデータ) (2025-05-20T15:39:20Z) - APCoTTA: Continual Test-Time Adaptation for Semantic Segmentation of Airborne LiDAR Point Clouds [14.348191795901101]
空中レーザースキャン(ALS)ポイントクラウドセグメンテーションは、大規模3Dシーン理解の基本的な課題である。
Continuous Test-Time Adaptation (CTTA)は、ソース予測モデルを適用して、未ラベルのターゲットドメインを進化させるソリューションを提供する。
我々は,ALSポイントクラウドセマンティックセグメンテーションに適した最初のCTTA手法であるAPCoTTAを提案する。
論文 参考訳(メタデータ) (2025-05-15T05:21:16Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - PointGPT: Auto-regressively Generative Pre-training from Point Clouds [45.488532108226565]
我々はGPTの概念を点雲に拡張する新しいアプローチであるPointGPTを提案する。
具体的には、変圧器モデルの事前訓練に対して、ポイントクラウド自動回帰生成タスクを提案する。
提案手法は,ModelNet40データセットで94.9%,ScanObjectNNデータセットで93.4%の分類精度を達成し,他のトランスフォーマーモデルよりも優れている。
論文 参考訳(メタデータ) (2023-05-19T07:39:04Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。