論文の概要: Gradient Concealment: Free Lunch for Defending Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2205.10617v1
- Date: Sat, 21 May 2022 15:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 18:18:36.938346
- Title: Gradient Concealment: Free Lunch for Defending Adversarial Attacks
- Title(参考訳): グラディエント・コンシールメント: 敵攻撃に備えたフリーランチ
- Authors: Sen Pei, Jiaxi Sun, Xiaopeng Zhang, Gaofeng Meng
- Abstract要約: 提案するプラグ・アンド・プレイ層は, トレーニング不要で, 勾配の脆弱な方向を隠蔽し, 推論時の分類精度を保証している。
GCMはImageNet分類ベンチマークで優れた防衛結果を報告し、敵の入力に直面すると63.41%のトップ1攻撃(AR)が改善された。
我々は、CVPR 2022 Robust Classification ChallengeでGCMを使用し、現在、第2フェーズでtextbf2を達成しており、ConvNextの小さなバージョンしかありません。
- 参考スコア(独自算出の注目度): 18.98319703484334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies show that the deep neural networks (DNNs) have achieved great
success in various tasks. However, even the \emph{state-of-the-art} deep
learning based classifiers are extremely vulnerable to adversarial examples,
resulting in sharp decay of discrimination accuracy in the presence of enormous
unknown attacks. Given the fact that neural networks are widely used in the
open world scenario which can be safety-critical situations, mitigating the
adversarial effects of deep learning methods has become an urgent need.
Generally, conventional DNNs can be attacked with a dramatically high success
rate since their gradient is exposed thoroughly in the white-box scenario,
making it effortless to ruin a well trained classifier with only imperceptible
perturbations in the raw data space. For tackling this problem, we propose a
plug-and-play layer that is training-free, termed as \textbf{G}radient
\textbf{C}oncealment \textbf{M}odule (GCM), concealing the vulnerable direction
of gradient while guaranteeing the classification accuracy during the inference
time. GCM reports superior defense results on the ImageNet classification
benchmark, improving up to 63.41\% top-1 attack robustness (AR) when faced with
adversarial inputs compared to the vanilla DNNs. Moreover, we use GCM in the
CVPR 2022 Robust Classification Challenge, currently achieving \textbf{2nd}
place in Phase II with only a tiny version of ConvNext. The code will be made
available.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワーク(DNN)が様々なタスクで大きな成功を収めていることが示されている。
しかし、emph{of-the-art}ディープラーニングベースの分類器でさえ、敵の例に対して非常に脆弱であり、巨大な未知の攻撃の存在下で識別精度が急落する。
ニューラルネットワークが安全クリティカルな状況であるオープンワールドのシナリオで広く利用されているという事実を考えると、ディープラーニング手法の逆効果を緩和することが急務である。
一般に、従来のDNNは、ホワイトボックスのシナリオにおいて、勾配が徹底的に露出するため、劇的に高い成功率で攻撃することができるため、生データ空間における知覚不能な摂動しか持たない、よく訓練された分類器を台無しにすることは困難である。
この問題に対処するため,本研究では,予測時間における分類精度を確保しつつ,勾配の脆弱な方向を隠蔽する,学習自由層を「textbf{G}radient \textbf{C}oncealment \textbf{M}odule (GCM)」と呼ぶ。
gcmはimagenet分類ベンチマークで優れた防御結果を示し、バニラdnnsと比較して敵意入力に直面する場合、最大63.41\%top-1攻撃ロバスト性(ar)を改善した。
さらに、cvpr 2022ロバスト分類チャレンジでgcmを使用し、現在convnextの小さなバージョンだけでフェーズiiで \textbf{2nd} が達成されている。
コードは利用可能になります。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Towards Robust Domain Generation Algorithm Classification [1.4542411354617986]
我々は32個のホワイトボックス攻撃を実装し、そのうち19個は非常に効果的であり、未硬化の分類器に対して$approx$100%の偽陰性率(FNR)を誘導する。
本稿では, 対角線空間ベクトルと離散化された対角線領域を利用して, 強靭性を大幅に向上させる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-04-09T11:56:29Z) - Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - On the Robustness of Bayesian Neural Networks to Adversarial Attacks [11.277163381331137]
敵対的攻撃に対する脆弱性は、安全クリティカルなアプリケーションでディープラーニングを採用する上で、大きなハードルのひとつです。
データ分布の縮退の結果、勾配に基づく攻撃に対する脆弱性が生じることを示す。
BNN後部分布に対する損失の予測勾配は、後部からサンプリングされた各ニューラルネットワークが勾配に基づく攻撃に対して脆弱である場合でも消滅していることを示す。
論文 参考訳(メタデータ) (2022-07-13T12:27:38Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Towards More Practical Adversarial Attacks on Graph Neural Networks [14.78539966828287]
グラフニューラルネットワーク(GNN)に対するブラックボックス攻撃を,新規で現実的な制約の下で検討する。
我々は,GNNモデルの構造的帰納バイアスが,この種の攻撃に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-09T05:27:39Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。