論文の概要: The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2305.14188v1
- Date: Tue, 23 May 2023 16:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 15:04:40.708158
- Title: The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks
- Title(参考訳): 最善の防御は善悪 - 敵の攻撃に対する敵意の強化
- Authors: Iuri Frosio and Jan Kautz
- Abstract要約: A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
- 参考スコア(独自算出の注目度): 91.56314751983133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many defenses against adversarial attacks (\eg robust classifiers,
randomization, or image purification) use countermeasures put to work only
after the attack has been crafted. We adopt a different perspective to
introduce $A^5$ (Adversarial Augmentation Against Adversarial Attacks), a novel
framework including the first certified preemptive defense against adversarial
attacks. The main idea is to craft a defensive perturbation to guarantee that
any attack (up to a given magnitude) towards the input in hand will fail. To
this aim, we leverage existing automatic perturbation analysis tools for neural
networks. We study the conditions to apply $A^5$ effectively, analyze the
importance of the robustness of the to-be-defended classifier, and inspect the
appearance of the robustified images. We show effective on-the-fly defensive
augmentation with a robustifier network that ignores the ground truth label,
and demonstrate the benefits of robustifier and classifier co-training. In our
tests, $A^5$ consistently beats state of the art certified defenses on MNIST,
CIFAR10, FashionMNIST and Tinyimagenet. We also show how to apply $A^5$ to
create certifiably robust physical objects. Our code at
https://github.com/NVlabs/A5 allows experimenting on a wide range of scenarios
beyond the man-in-the-middle attack tested here, including the case of physical
attacks.
- Abstract(参考訳): 敵の攻撃に対する多くの防御(強固な分類器、ランダム化、画像浄化)は、攻撃が実行された後にのみ機能する。
我々は、敵攻撃に対する最初の証明された先制防御を含む新しい枠組みである$A^5$を導入するために異なる視点を採用する。
主なアイデアは、入力に対する攻撃(与えられた大きさまで)が失敗することを保証するために防御的な摂動を作ることである。
この目的のために,既存のニューラルネットワークの自動摂動解析ツールを活用する。
a^5$を効果的に適用する条件を検討し,to-be-defended分類器のロバスト性の重要性を分析し,ロバスト化画像の出現を検査した。
そこで,本研究では,ロバストファイタネットワークによる有効防御強化効果を示すとともに,ロバストファイタとクラシファイタ協調学習の利点を実証する。
私たちのテストでは、$A^5$は、MNIST、CIFAR10、FashionMNIST、Tinyimagenetの芸術認定防御状態を常に上回ります。
また、$A^5$を適用して、確実に堅牢な物理オブジェクトを作成する方法を示す。
私たちのコードはhttps://github.com/nvlabs/a5で、物理的攻撃を含む中間者攻撃以外の幅広いシナリオを実験できます。
関連論文リスト
- Gradient Masking All-at-Once: Ensemble Everything Everywhere Is Not Robust [65.95797963483729]
あらゆるものをアンサンブルすることは、敵の例に対する防御である。
この防御は敵の攻撃に対して堅牢ではないことを示す。
次に、標準的なアダプティブアタック技術を用いて、防御の堅牢な精度を低下させる。
論文 参考訳(メタデータ) (2024-11-22T10:17:32Z) - Robust width: A lightweight and certifiable adversarial defense [0.0]
逆例は、モデルが誤った予測や分類を行うように意図的に構築される。
本研究では,最近圧縮センシングに導入された頑健な幅特性(RWP)に基づく対角防御について検討する。
本稿では、RWPに基づく特定の入力浄化方式により、ほぼスパースな画像に対して理論的ロバスト性を保証することを示す。
論文 参考訳(メタデータ) (2024-05-24T22:50:50Z) - Multiple Perturbation Attack: Attack Pixelwise Under Different
$\ell_p$-norms For Better Adversarial Performance [17.57296795184232]
敵の攻撃と防御は、通常、防御者や攻撃者が時間をかけて進化する猫とマウスのゲームに例えられる。
様々な$ell_p$勾配の投影をピクセルレベルで組み合わせ、対向対向摂動を実現するという自然なアプローチを思いついた。
具体的には、攻撃性能を最大化するために各ピクセルを摂動する方法を学習し、対向的な例の全体的な視覚的非受容性を維持できる。
論文 参考訳(メタデータ) (2022-12-05T15:38:37Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - LAFEAT: Piercing Through Adversarial Defenses with Latent Features [15.189068478164337]
特定の"ロバスト"モデルの潜在機能は、驚くほど敵の攻撃に影響を受けやすいことを示す。
勾配降下ステップ、すなわちLAFEATで潜伏機能を利用する統一$ell_infty$-normホワイトボックス攻撃アルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-04-19T13:22:20Z) - Defenses Against Multi-Sticker Physical Domain Attacks on Classifiers [24.809185168969066]
重要な攻撃の一つは、道路標識のような物体に白黒のステッカーを置くことで分類器を騙すことができる。
この攻撃から守るために設計された防御はない。
本稿では,マルチスティック攻撃から防御できる新たな防御策を提案する。
論文 参考訳(メタデータ) (2021-01-26T19:59:28Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Certified Defenses for Adversarial Patches [72.65524549598126]
敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチアタックに対する認証と実証的防御について検討する。
論文 参考訳(メタデータ) (2020-03-14T19:57:31Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。