論文の概要: Attacking Adversarial Attacks as A Defense
- arxiv url: http://arxiv.org/abs/2106.04938v1
- Date: Wed, 9 Jun 2021 09:31:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 14:56:52.675280
- Title: Attacking Adversarial Attacks as A Defense
- Title(参考訳): 防御としての敵の攻撃
- Authors: Boxi Wu, Heng Pan, Li Shen, Jindong Gu, Shuai Zhao, Zhifeng Li, Deng
Cai, Xiaofei He, Wei Liu
- Abstract要約: 敵の攻撃は 知覚不能な摂動で ディープニューラルネットワークを騙す
逆向きに訓練されたモデルでは、小さなランダムノイズで逆向きの例を摂動することで、誤った予測を無効にすることができる。
我々はより効果的な防御的摂動を構築することで攻撃に対抗することを提案する。
- 参考スコア(独自算出の注目度): 40.8739589617252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that adversarial attacks can fool deep neural networks with
imperceptible perturbations. Although adversarial training significantly
improves model robustness, failure cases of defense still broadly exist. In
this work, we find that the adversarial attacks can also be vulnerable to small
perturbations. Namely, on adversarially-trained models, perturbing adversarial
examples with a small random noise may invalidate their misled predictions.
After carefully examining state-of-the-art attacks of various kinds, we find
that all these attacks have this deficiency to different extents. Enlightened
by this finding, we propose to counter attacks by crafting more effective
defensive perturbations. Our defensive perturbations leverage the advantage
that adversarial training endows the ground-truth class with smaller local
Lipschitzness. By simultaneously attacking all the classes, the misled
predictions with larger Lipschitzness can be flipped into correct ones. We
verify our defensive perturbation with both empirical experiments and
theoretical analyses on a linear model. On CIFAR10, it boosts the
state-of-the-art model from 66.16% to 72.66% against the four attacks of
AutoAttack, including 71.76% to 83.30% against the Square attack. On ImageNet,
the top-1 robust accuracy of FastAT is improved from 33.18% to 38.54% under the
100-step PGD attack.
- Abstract(参考訳): 敵の攻撃が知覚不能な摂動を伴うディープニューラルネットワークを騙すことはよく知られている。
敵の訓練はモデルの堅牢性を大幅に向上させるが、防御の失敗例は広く存在する。
この研究では、敵の攻撃は小さな摂動にも弱いことが判明した。
すなわち、敵対的に訓練されたモデルでは、小さなランダムノイズを持つ敵の例を摂動することで、誤った予測を無効にすることができる。
様々な種類の最先端の攻撃を慎重に調べた結果、これらすべての攻撃は、異なる程度にこの欠陥があることがわかった。
この発見を悟り,より効果的な防御的摂動を造ることによる攻撃に対抗することを提案する。
我々の防御的摂動は、敵の訓練がより小さな局所的なリプシッツ性で地上のクラスを内乱するという利点を生かしている。
すべてのクラスを同時に攻撃することにより、より大きなリプシッツ性を持つ誤った予測を正解にすることができる。
実験実験と線形モデル理論解析の両方を用いて, 防御摂動を検証した。
CIFAR10では、4回のオートアタック攻撃に対して66.16%から72.66%に増加し、うち71.76%はスクエア攻撃に対して83.30%となった。
ImageNetでは、100ステップのPGD攻撃でFastATが33.18%から38.54%に改善された。
関連論文リスト
- Protecting against simultaneous data poisoning attacks [14.893813906644153]
現在のバックドア防御法は、一度に1回の攻撃に対して評価される。
同時に実行されたデータ中毒攻撃は、複数のバックドアを単一のモデルに効果的にインストールできることを示す。
我々は,マルチアタック・セッティングに有効である新しいディフェンス,BaDLossを開発した。
論文 参考訳(メタデータ) (2024-08-23T16:57:27Z) - PubDef: Defending Against Transfer Attacks From Public Models [6.0012551318569285]
本稿では,公用サロゲートモデルによる転送攻撃を敵が頼りにする,新たな実用的脅威モデルを提案する。
本研究では,この環境での移動攻撃を評価し,ゲーム理論の観点から専門的な防御手法を提案する。
この脅威モデルの下では、我々の防衛であるPubDefは、最先端のホワイトボックス対敵訓練を、通常の精度でほとんど損なわない大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-10-26T17:58:08Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Utilizing Adversarial Targeted Attacks to Boost Adversarial Robustness [10.94463750304394]
敵対的攻撃はディープニューラルネットワーク(DNN)の性能を低下させるのに非常に効果的であることが示されている。
我々は,最近提案された予測正規化最大公準を取り入れた新しい解を提案する。
我々は、ResNet-50、WideResNet-28、およびImageNet、CIFAR10、MNISTで訓練された2層ConvNetを用いて、16の敵攻撃ベンチマークに対するアプローチを広範囲に評価した。
論文 参考訳(メタデータ) (2021-09-04T22:30:49Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Unified Detection of Digital and Physical Face Attacks [61.6674266994173]
顔攻撃に対する最先端の防御メカニズムは、敵対的、デジタル操作、または物理的な偽装の3つの攻撃カテゴリのうちの1つでほぼ完璧な精度を達成します。
この3つのカテゴリに属する25のコヒーレントな攻撃タイプを自動的にクラスタリングできる統合攻撃検出フレームワーク(UniFAD)を提案する。
論文 参考訳(メタデータ) (2021-04-05T21:08:28Z) - Lagrangian Objective Function Leads to Improved Unforeseen Attack
Generalization in Adversarial Training [0.0]
対人訓練(AT)は、訓練中に使用される攻撃に対して堅牢なモデルに到達するのに有効であることが示されている。
我々は、上記の問題を緩和する簡易なAT修正を提案する。
我々は,攻撃の一般化を意図した他の攻撃手法よりも,攻撃速度が速いことを示す。
論文 参考訳(メタデータ) (2021-03-29T07:23:46Z) - Optimal Transport as a Defense Against Adversarial Attacks [4.6193503399184275]
敵対的攻撃は、訓練されたモデルを誤解させる画像に対して、人間の知覚できない摂動を見つけることができる。
従来の研究は、原画像と敵対画像の整合性をドメイン適応と同等に調整し、堅牢性を向上させることを目的としていた。
地上距離を忠実に反映した分布間の損失を用いることを提案する。
これによりSAT (Sinkhorn Adversarial Training) は敵の攻撃に対してより堅牢な防衛を行う。
論文 参考訳(メタデータ) (2021-02-05T13:24:36Z) - Are Adversarial Examples Created Equal? A Learnable Weighted Minimax
Risk for Robustness under Non-uniform Attacks [70.11599738647963]
敵の訓練は、強力な攻撃に耐える数少ない防衛の1つである。
従来の防御機構は、基礎となるデータ分布に従って、サンプルに対する均一な攻撃を前提とします。
非一様攻撃に対して重み付けされたミニマックスリスク最適化を提案する。
論文 参考訳(メタデータ) (2020-10-24T21:20:35Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。