論文の概要: Interpretability-Guided Test-Time Adversarial Defense
- arxiv url: http://arxiv.org/abs/2409.15190v1
- Date: Mon, 23 Sep 2024 16:40:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 14:02:53.177341
- Title: Interpretability-Guided Test-Time Adversarial Defense
- Title(参考訳): 解釈可能性に基づくテスト時間対向防御
- Authors: Akshay Kulkarni, Tsui-Wei Weng,
- Abstract要約: 本稿では,解釈可能性に配慮したニューロン重要度ランキング法を考案し,新規で低コストなテストタイム敵防衛法を提案する。
我々の手法は、ロバストネスと精度のトレードオフを大幅に改善できる訓練のないアプローチである。
強い適応攻撃下であっても、最先端のテスト時間防御に対して改善(平均1.5%)を示す。
- 参考スコア(独自算出の注目度): 12.342237623922534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel and low-cost test-time adversarial defense by devising interpretability-guided neuron importance ranking methods to identify neurons important to the output classes. Our method is a training-free approach that can significantly improve the robustness-accuracy tradeoff while incurring minimal computational overhead. While being among the most efficient test-time defenses (4x faster), our method is also robust to a wide range of black-box, white-box, and adaptive attacks that break previous test-time defenses. We demonstrate the efficacy of our method for CIFAR10, CIFAR100, and ImageNet-1k on the standard RobustBench benchmark (with average gains of 2.6%, 4.9%, and 2.8% respectively). We also show improvements (average 1.5%) over the state-of-the-art test-time defenses even under strong adaptive attacks.
- Abstract(参考訳): そこで本研究では,ニューロンを識別するための解釈可能性誘導型ニューロン重要度ランキング法を考案し,新しい低コストなテスト時敵防衛手法を提案する。
本手法は,計算オーバーヘッドを最小限に抑えつつ,ロバストネスと精度のトレードオフを大幅に改善する訓練のない手法である。
最も効率的なテスト時防御(4倍高速)の1つだが、我々の手法は、以前のテスト時防御を破る広範囲なブラックボックス、ホワイトボックス、アダプティブアタックに対しても堅牢である。
CIFAR10, CIFAR100, ImageNet-1kの標準ロバストベンチベンチマーク(平均ゲインは2.6%, 4.9%, 2.8%)における有効性を示した。
また、強い適応攻撃下であっても、最先端のテスト時間防御に対する改善(平均1.5%)を示す。
関連論文リスト
- TAPT: Test-Time Adversarial Prompt Tuning for Robust Inference in Vision-Language Models [53.91006249339802]
視覚的対人攻撃に対するCLIPの推論ロバスト性を高めるため, TAPT(Test-Time Adversarial Prompt Tuning)と呼ばれる新しい防御手法を提案する。
TAPTは、CLIPの推論プロセスを堅牢化するために、防御的バイモーダル(テキストと視覚)のプロンプトを学習するテストタイムディフェンス手法である。
我々は、ImageNetなど10のゼロショットデータセットを含む11のベンチマークデータセットに対するTAPTの有効性を評価する。
論文 参考訳(メタデータ) (2024-11-20T08:58:59Z) - Closing the Gap: Achieving Better Accuracy-Robustness Tradeoffs against Query-Based Attacks [1.54994260281059]
クエリベースの攻撃を緩和する上で、ロバスト性と精度の確固たるトレードオフを、テスト時に効率的に確立する方法を示す。
我々のアプローチは訓練とは無関係であり、理論に支えられている。
論文 参考訳(メタデータ) (2023-12-15T17:02:19Z) - Robust Feature Inference: A Test-time Defense Strategy using Spectral Projections [12.807619042576018]
我々はロバスト特徴推論(RFI)と呼ばれる新しいテスト時間防衛戦略を提案する。
RFIは、追加のテスト時間計算なしで既存の(ロバストな)トレーニング手順と簡単に統合できる。
RFIは、適応攻撃や転送攻撃によるロバスト性を継続的に改善することを示す。
論文 参考訳(メタデータ) (2023-07-21T16:18:58Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - Can Adversarial Training Be Manipulated By Non-Robust Features? [64.73107315313251]
もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
我々は、トレーニングデータをわずかに摂動させることで、堅牢な可用性を阻害することを目的とした、安定性攻撃と呼ばれる新しい脅威モデルを特定する。
この脅威の下では、従来の防衛予算$epsilon$による敵の訓練が、単純な統計的条件下でテストロバスト性を提供するのに確実に失敗することを発見した。
論文 参考訳(メタデータ) (2022-01-31T16:25:25Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Utilizing Adversarial Targeted Attacks to Boost Adversarial Robustness [10.94463750304394]
敵対的攻撃はディープニューラルネットワーク(DNN)の性能を低下させるのに非常に効果的であることが示されている。
我々は,最近提案された予測正規化最大公準を取り入れた新しい解を提案する。
我々は、ResNet-50、WideResNet-28、およびImageNet、CIFAR10、MNISTで訓練された2層ConvNetを用いて、16の敵攻撃ベンチマークに対するアプローチを広範囲に評価した。
論文 参考訳(メタデータ) (2021-09-04T22:30:49Z) - ROPUST: Improving Robustness through Fine-tuning with Photonic
Processors and Synthetic Gradients [65.52888259961803]
ROPUSTは、頑健な事前学習モデルを活用し、その堅牢性を高めるためのシンプルで効率的な手法である。
我々は,ロバストベンチの4つの攻撃に対して,9つの異なるモデルを用いて実験を行った。
ROPUSTは,最先端の位相探索技術でも有効であることを示す。
論文 参考訳(メタデータ) (2021-07-06T12:03:36Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。