論文の概要: On Trace of PGD-Like Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2205.09586v1
- Date: Thu, 19 May 2022 14:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 13:59:40.182416
- Title: On Trace of PGD-Like Adversarial Attacks
- Title(参考訳): PGD様敵攻撃の痕跡について
- Authors: Mo Zhou, Vishal M. Patel
- Abstract要約: 敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
- 参考スコア(独自算出の注目度): 77.75152218980605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks pose safety and security concerns for deep learning
applications. Yet largely imperceptible, a strong PGD-like attack may leave
strong trace in the adversarial example. Since attack triggers the local
linearity of a network, we speculate network behaves in different extents of
linearity for benign examples and adversarial examples. Thus, we construct
Adversarial Response Characteristics (ARC) features to reflect the model's
gradient consistency around the input to indicate the extent of linearity.
Under certain conditions, it shows a gradually varying pattern from benign
example to adversarial example, as the later leads to Sequel Attack Effect
(SAE). ARC feature can be used for informed attack detection (perturbation
magnitude is known) with binary classifier, or uninformed attack detection
(perturbation magnitude is unknown) with ordinal regression. Due to the
uniqueness of SAE to PGD-like attacks, ARC is also capable of inferring other
attack details such as loss function, or the ground-truth label as a
post-processing defense. Qualitative and quantitative evaluations manifest the
effectiveness of ARC feature on CIFAR-10 w/ ResNet-18 and ImageNet w/
ResNet-152 and SwinT-B-IN1K with considerable generalization among PGD-like
attacks despite domain shift. Our method is intuitive, light-weighted,
non-intrusive, and data-undemanding.
- Abstract(参考訳): 敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
PGDのような強い攻撃は、敵の例では強い痕跡を残している可能性がある。
アタックはネットワークの局所線形性をトリガーするので、ネットワークは良質な例や逆の例に対して線形性の異なる範囲で振る舞うと推測する。
そこで本稿では, 線形性の範囲を示すために, 入力周辺におけるモデルの勾配一貫性を反映するように, ARC特性を構築する。
特定の条件下では、後続攻撃効果(sae)につながるため、良質な例から敵対的な例へと徐々に変化するパターンを示す。
ARC機能は、バイナリ分類器による情報攻撃検出(摂動マグニチュードが知られている)や、順序回帰による非情報攻撃検出(摂動マグニチュードが不明)に使用できる。
SAE から PGD のような攻撃に対する特異性のため、ARC は損失関数などの攻撃の詳細や、後処理の防御としてグラウンドトルースラベルを推測することもできる。
cifar-10 w/resnet-18およびimagenet w/resnet-152およびswint-b-in1kにおけるarc特徴の質的および定量的評価は、ドメインシフトにもかかわらずpgd様攻撃においてかなり一般化した。
本手法は直感的,軽量,非意図的,データ不要である。
関連論文リスト
- Universal Detection of Backdoor Attacks via Density-based Clustering and
Centroids Analysis [24.953032059932525]
クラスタリングとセントロイド分析(CCA-UD)に基づくバックドア攻撃に対するユニバーサルディフェンスを提案する。
防御の目的は、ディープラーニングモデルがトレーニングデータセットを検査することでバックドア攻撃の対象になるかどうかを明らかにすることである。
論文 参考訳(メタデータ) (2023-01-11T16:31:38Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Evaluation of Neural Networks Defenses and Attacks using NDCG and
Reciprocal Rank Metrics [6.6389732792316]
分類タスクにおけるニューラルネットワークの出力に対する攻撃効果、防衛効果の回復効果を特に測定するために設計された2つの指標を示す。
正規化された累積ゲインと、情報検索文献で使用される相互ランクの指標に着想を得て、ニューラルネットワーク予測を結果のランクリストとして扱う。
一般的な分類指標と比較すると,提案指標は優れた情報的・独特性を示す。
論文 参考訳(メタデータ) (2022-01-10T12:54:45Z) - Using Anomaly Feature Vectors for Detecting, Classifying and Warning of
Outlier Adversarial Examples [4.096598295525345]
分類ニューラルネットワークに提示される敵入力を検出し,分類し,警告するシステムであるDeClaWについて述べる。
予備的な発見は、AFVがCIFAR-10データセット上で93%近い精度で、いくつかの種類の敵攻撃を区別するのに役立つことを示唆している。
論文 参考訳(メタデータ) (2021-07-01T16:00:09Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial Detection and Correction by Matching Prediction
Distributions [0.0]
この検出器は、MNISTとFashion-MNISTに対するCarini-WagnerやSLIDEのような強力な攻撃をほぼ完全に中和する。
本手法は,攻撃者がモデルと防御の両方について十分な知識を持つホワイトボックス攻撃の場合においても,なおも敵の例を検出することができることを示す。
論文 参考訳(メタデータ) (2020-02-21T15:45:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。