論文の概要: Desensitizing for Improving Corruption Robustness in Point Cloud Classification through Adversarial Training
- arxiv url: http://arxiv.org/abs/2509.23010v1
- Date: Sat, 27 Sep 2025 00:04:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.98163
- Title: Desensitizing for Improving Corruption Robustness in Point Cloud Classification through Adversarial Training
- Title(参考訳): 逆学習による点群分類における破壊ロバスト性向上のための脱感作
- Authors: Zhiqiang Tian, Weigang Li, Chunhua Deng, Junwei Hu, Yongqiang Wang, Wenping Liu,
- Abstract要約: 入力機能の過度な信頼性は、DNN脆弱性の根本原因である。
本稿では,デセンシタイズ・アドセンシタイズ・トレーニング(Desensitized Adsensitized Training, DesenAT)を提案する。
ModelNet-C と PointCloud-C の大規模な実験により,提案手法はクリーンデータセットの性能を低下させることなく,モデルの堅牢性を効果的に向上できることを示した。
- 参考スコア(独自算出の注目度): 10.758400116136523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to scene complexity, sensor inaccuracies, and processing imprecision, point cloud corruption is inevitable. Over-reliance on input features is the root cause of DNN vulnerabilities. It remains unclear whether this issue exists in 3D tasks involving point clouds and whether reducing dependence on these features can enhance the model's robustness to corrupted point clouds. This study attempts to answer these questions. Specifically, we quantified the sensitivity of the DNN to point cloud features using Shapley values and found that models trained using traditional methods exhibited high sensitivity values for certain features. Furthermore, under an equal pruning ratio, prioritizing the pruning of highly sensitive features causes more severe damage to model performance than random pruning. We propose `Desensitized Adversarial Training' (DesenAT), generating adversarial samples using feature desensitization and conducting training within a self-distillation framework, which aims to alleviate DNN's over-reliance on point clouds features by smoothing sensitivity. First, data points with high contribution components are eliminated, and spatial transformation is used to simulate corruption scenes, generate adversarial samples, and conduct adversarial training on the model. Next, to compensate for information loss in adversarial samples, we use the self-distillation method to transfer knowledge from clean samples to adversarial samples, and perform adversarial training in a distillation manner.Extensive experiments on ModelNet-C and PointCloud-C demonstrate show that the propose method can effectively improve the robustness of the model without reducing the performance of clean data sets. This code is publicly available at \href{https://github.com/JerkyT/DesenAT/tree/master}{https://github.com/JerkyT/DesenAT}.
- Abstract(参考訳): シーンの複雑さ、センサの不正確さ、処理の不正確さにより、点雲の破損は避けられない。
入力機能の過度な信頼性は、DNN脆弱性の根本原因である。
ポイントクラウドを含む3Dタスクにこの問題が存在しているのか、これらの機能への依存を減らせば、腐敗したポイントクラウドに対するモデルの堅牢性を高めることができるのかは不明だ。
この研究はこれらの疑問に答えようと試みる。
具体的には、Shapley値を用いてDNNの感度をポイントクラウド特徴量に定量化し、従来の手法でトレーニングされたモデルが特定の特徴に対して高い感度値を示した。
さらに, 同一プルーニング比の下では, 高感度特徴のプルーニングを優先すると, ランダムプルーニングよりもモデル性能に深刻なダメージを与える。
本稿では,DNNが点群の特徴をスムーズにすることで,点群の特徴に対する過度な信頼を緩和することを目的とした自己蒸留フレームワーク内で,特徴脱感化と訓練を行う「脱感作適応訓練(Desensitized Adversarial Training, DesenAT)」を提案する。
まず、高い寄与成分を持つデータポイントを排除し、空間変換を用いて、汚職シーンをシミュレートし、敵のサンプルを生成し、モデル上で敵の訓練を行う。
次に, 敵検体の情報損失を補うために, クリーンサンプルから敵検体へ知識を伝達し, 蒸留方法で敵検体を訓練するために自己蒸留法を用い, モデルNet-CとPointCloud-Cの総合実験により, クリーンデータセットの性能を低下させることなく, モデルの有効性を効果的に向上できることを示した。
このコードは \href{https://github.com/JerkyT/DesenAT/tree/master}{https://github.com/JerkyT/DesenAT} で公開されている。
関連論文リスト
- Adversarial Purification by Consistency-aware Latent Space Optimization on Data Manifolds [48.37843602248313]
ディープニューラルネットワーク(DNN)は、クリーンデータに知覚不能な摂動を加えることで作られた敵のサンプルに対して脆弱であり、誤った危険な予測につながる可能性がある。
本稿では、事前学習された一貫性モデルの潜在空間内のベクトルを最適化し、クリーンなデータを復元するためのサンプルを生成する、一貫性モデルに基づく適応的パーフィケーション(CMAP)を提案する。
CMAPは、高い自然な精度を維持しながら、強力な敵攻撃に対する堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2024-12-11T14:14:02Z) - Test-Time Adaptation of 3D Point Clouds via Denoising Diffusion Models [19.795578581043745]
3Dポイントクラウドのテスト時間適応は、実世界のシナリオにおけるトレーニングとテストサンプルの相違を緩和するために不可欠である。
本稿では,3D Denoising Diffusion Test-Time Adaptationの略である3DD-TTAと呼ばれる新しい3Dテスト時間適応法を提案する。
論文 参考訳(メタデータ) (2024-11-21T00:04:38Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Training More Robust Classification Model via Discriminative Loss and Gaussian Noise Injection [7.535952418691443]
本稿では,クラス内コンパクト性を明示する最小層に適用した損失関数を提案する。
また、ノイズの多いデータクラスタをクリーンなクラスタに近づける、クラスワイズな機能アライメント機構を提案する。
提案手法は, クリーンなデータに対して高い精度を維持しながら, 各種摂動に対するモデルロバスト性を大幅に強化する。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Point-DAE: Denoising Autoencoders for Self-supervised Point Cloud Learning [54.51061298877896]
我々は、より一般的なポイントクラウド学習用オートエンコーダ(Point-DAE)について、マスキング以外の多くの種類の汚職を調査して検討する。
具体的には、特定の破損を入力としてポイントクラウドを分解し、エンコーダ・デコーダモデルを学び、元のポイントクラウドを破損したバージョンから再構築する。
論文 参考訳(メタデータ) (2022-11-13T08:02:03Z) - PointCAT: Contrastive Adversarial Training for Robust Point Cloud
Recognition [111.55944556661626]
我々は、ポイントクラウド認識モデルの堅牢性を高めるために、PointCAT(Point-Cloud Contrastive Adversarial Training)を提案する。
我々は、教師付きコントラスト損失を利用して、認識モデルにより抽出された超球面特徴のアライメントと均一性を促進する。
より難易度の高い点雲を実現するため,認識モデルと逆向きにノイズ発生装置をスクラッチから訓練する。
論文 参考訳(メタデータ) (2022-09-16T08:33:04Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Guided Point Contrastive Learning for Semi-supervised Point Cloud
Semantic Segmentation [90.2445084743881]
そこで本研究では,モデル性能を向上させるために,未ラベルの点群をトレーニングに採用するための半教師付き点群セマンティックセマンティックセマンティックセマンティクスを提案する。
近年の自己監督型タスクのコントラスト損失に触発されて,特徴表現とモデル一般化能力を高めるためのガイド付きポイントコントラスト損失を提案する。
論文 参考訳(メタデータ) (2021-10-15T16:38:54Z) - 3D Point Cloud Completion with Geometric-Aware Adversarial Augmentation [11.198650616143219]
本稿では,3Dポイントクラウド完了タスクにおけるニューラルネットワークの性能向上を図ることを目的とした。
本稿では, クリーンサンプルと逆サンプルの両方の性能向上に寄与する, 逆サンプルを生成する新しい手法を提案する。
実験結果から,本手法により作製した逆方向サンプルを用いたトレーニングは,ShapeNetデータセット上でのPCNの性能を効果的に向上することが示された。
論文 参考訳(メタデータ) (2021-09-21T13:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。