論文の概要: Improving Adversarial Robustness for 3D Point Cloud Recognition at Test-Time through Purified Self-Training
- arxiv url: http://arxiv.org/abs/2409.14940v1
- Date: Mon, 23 Sep 2024 11:46:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 15:15:39.782102
- Title: Improving Adversarial Robustness for 3D Point Cloud Recognition at Test-Time through Purified Self-Training
- Title(参考訳): 完全自己評価による3次元点雲認識における対向ロバスト性の改善
- Authors: Jinpeng Lin, Xulei Yang, Tianrui Li, Xun Xu,
- Abstract要約: 3Dポイントのクラウドディープラーニングモデルは、敵の攻撃に対して脆弱である。
敵の浄化は 生成モデルを使って 敵の攻撃の影響を緩和する
そこで我々は,この目的を達成するために,テスト時間浄化型自己学習戦略を提案する。
- 参考スコア(独自算出の注目度): 9.072521170921712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing 3D point cloud plays a pivotal role in many real-world applications. However, deploying 3D point cloud deep learning model is vulnerable to adversarial attacks. Despite many efforts into developing robust model by adversarial training, they may become less effective against emerging attacks. This limitation motivates the development of adversarial purification which employs generative model to mitigate the impact of adversarial attacks. In this work, we highlight the remaining challenges from two perspectives. First, the purification based method requires retraining the classifier on purified samples which introduces additional computation overhead. Moreover, in a more realistic scenario, testing samples arrives in a streaming fashion and adversarial samples are not isolated from clean samples. These challenges motivates us to explore dynamically update model upon observing testing samples. We proposed a test-time purified self-training strategy to achieve this objective. Adaptive thresholding and feature distribution alignment are introduced to improve the robustness of self-training. Extensive results on different adversarial attacks suggest the proposed method is complementary to purification based method in handling continually changing adversarial attacks on the testing data stream.
- Abstract(参考訳): 3Dポイントクラウドの認識は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
しかし、3Dポイントのクラウドディープラーニングモデルのデプロイは、敵の攻撃に対して脆弱である。
敵の訓練による堅牢なモデル開発への多くの取り組みにもかかわらず、新興攻撃に対して効果が低下する可能性がある。
この制限は、敵の攻撃の影響を軽減するために生成モデルを利用する敵の浄化の発展を動機付けている。
この研究では、残りの課題を2つの視点から強調する。
第一に, 浄化法では, 新たな計算オーバーヘッドを伴って, 精製試料の分類器を再訓練する必要がある。
さらに、より現実的なシナリオでは、テストサンプルがストリーミング形式で到着し、反対サンプルはクリーンサンプルから分離されない。
これらの課題は、テストサンプルを観察する上で、モデルを動的に更新する動機付けになります。
我々は、この目的を達成するために、テストタイムの浄化自己学習戦略を提案した。
適応しきい値と特徴分布アライメントを導入し、自己学習の堅牢性を向上させる。
異なる敵攻撃に対する広範囲な結果から, 提案手法は, テストデータストリームに対する敵攻撃の継続的な変化に対処する上で, 浄化法を補完するものであることが示唆された。
関連論文リスト
- Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Fast Propagation is Better: Accelerating Single-Step Adversarial
Training via Sampling Subnetworks [69.54774045493227]
逆行訓練の欠点は、逆行例の生成によって引き起こされる計算オーバーヘッドである。
モデルの内部構造ブロックを利用して効率を向上させることを提案する。
従来の手法と比較して,本手法はトレーニングコストを削減できるだけでなく,モデルの堅牢性も向上する。
論文 参考訳(メタデータ) (2023-10-24T01:36:20Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - 3D Point Cloud Completion with Geometric-Aware Adversarial Augmentation [11.198650616143219]
本稿では,3Dポイントクラウド完了タスクにおけるニューラルネットワークの性能向上を図ることを目的とした。
本稿では, クリーンサンプルと逆サンプルの両方の性能向上に寄与する, 逆サンプルを生成する新しい手法を提案する。
実験結果から,本手法により作製した逆方向サンプルを用いたトレーニングは,ShapeNetデータセット上でのPCNの性能を効果的に向上することが示された。
論文 参考訳(メタデータ) (2021-09-21T13:16:46Z) - Improving Gradient-based Adversarial Training for Text Classification by
Contrastive Learning and Auto-Encoder [18.375585982984845]
我々は,モデルの訓練過程において,勾配に基づく敵攻撃を防御するモデルの能力の向上に焦点をあてる。
本稿では, CARL と RAR の2つの新しい対戦訓練手法を提案する。
実験により,提案した2つの手法は,テキスト分類データセットにおいて高いベースラインを達成していることが示された。
論文 参考訳(メタデータ) (2021-09-14T09:08:58Z) - Achieving Model Robustness through Discrete Adversarial Training [30.845326360305677]
私たちは、各ステップで敵の例が生成されるオンライン増強に離散的な敵対攻撃を利用します。
ランダムサンプリングによってロバスト性は著しく向上し、一般的に使用されるオフライン拡張よりも優れることがわかった。
検索ベースの攻撃によるオンライン強化は、より高いトレーニングコストを正当化し、3つのデータセットの堅牢性を大幅に改善します。
論文 参考訳(メタデータ) (2021-04-11T17:49:21Z) - Robust Ensemble Model Training via Random Layer Sampling Against
Adversarial Attack [38.1887818626171]
本稿では,深層ニューラルネットワークのロバスト性を改善するために,ランダム層サンプリングを用いたアンサンブルモデルトレーニングフレームワークを提案する。
提案するトレーニングフレームワークでは,ランダム層サンプリングにより種々のサンプルモデルを生成し,サンプルモデルの重みを更新する。
アンサンブルモデルが訓練された後、効率よく勾配を隠蔽し、勾配に基づく攻撃を避けることができる。
論文 参考訳(メタデータ) (2020-05-21T16:14:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。