論文の概要: A Spectral Perspective towards Understanding and Improving Adversarial
Robustness
- arxiv url: http://arxiv.org/abs/2306.14262v1
- Date: Sun, 25 Jun 2023 14:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 15:52:27.963268
- Title: A Spectral Perspective towards Understanding and Improving Adversarial
Robustness
- Title(参考訳): 対向ロバスト性理解と改善のためのスペクトル視点
- Authors: Binxiao Huang, Rui Lin, Chaofan Tao, Ngai Wong
- Abstract要約: 対人訓練(AT)は効果的な防御手法であることが証明されているが、堅牢性向上のメカニズムは十分に理解されていない。
我々は、ATは、形状バイアスのある表現を保持する低周波領域にもっと焦点を合わせ、堅牢性を得るよう深層モデルに誘導することを示す。
本稿では,攻撃された逆入力によって推定されるスペクトル出力が,その自然な入力に可能な限り近いスペクトルアライメント正則化(SAR)を提案する。
- 参考スコア(独自算出の注目度): 8.912245110734334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are incredibly vulnerable to crafted,
imperceptible adversarial perturbations. While adversarial training (AT) has
proven to be an effective defense approach, the AT mechanism for robustness
improvement is not fully understood. This work investigates AT from a spectral
perspective, adding new insights to the design of effective defenses. In
particular, we show that AT induces the deep model to focus more on the
low-frequency region, which retains the shape-biased representations, to gain
robustness. Further, we find that the spectrum of a white-box attack is
primarily distributed in regions the model focuses on, and the perturbation
attacks the spectral bands where the model is vulnerable. Based on this
observation, to train a model tolerant to frequency-varying perturbation, we
propose a spectral alignment regularization (SAR) such that the spectral output
inferred by an attacked adversarial input stays as close as possible to its
natural input counterpart. Experiments demonstrate that SAR and its weight
averaging (WA) extension could significantly improve the robust accuracy by
1.14% ~ 3.87% relative to the standard AT, across multiple datasets (CIFAR-10,
CIFAR-100 and Tiny ImageNet), and various attacks (PGD, C&W and Autoattack),
without any extra data.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Network, DNN)は、極端に脆弱で、不可避な逆境の摂動に弱い。
対人訓練(AT)は効果的な防御手法であることが証明されているが、堅牢性向上のためのATメカニズムは十分に理解されていない。
この研究は、スペクトルの観点から調査し、効果的な防御の設計に新たな洞察を加えます。
特に、ATは、形状バイアスのある表現を保持する低周波領域にもっと焦点を合わせ、堅牢性を得るよう深層モデルに誘導することを示す。
さらに,ホワイトボックス攻撃のスペクトルは主にモデルが焦点を絞った領域に分布し,モデルが脆弱なスペクトル帯域を摂動が攻撃することを発見した。
本研究は,周波数変動摂動に対するモデル耐性を訓練するために,攻撃された逆入力によって推定されるスペクトル出力が,その自然な入力に可能な限り近いスペクトルアライメント正則化(SAR)を提案する。
実験により、SARとそのウェイト平均(WA)拡張は、複数のデータセット(CIFAR-10、CIFAR-100、Tiny ImageNet)と様々な攻撃(PGD、C&W、オートアタック)にまたがって、標準ATと比較して1.14%~3.87%のロバスト精度を向上できることが示された。
関連論文リスト
- DAT: Improving Adversarial Robustness via Generative Amplitude Mix-up in Frequency Domain [23.678658814438855]
敵の攻撃からディープニューラルネットワーク(DNN)を保護するために、敵の訓練(AT)が開発された。
近年の研究では、敵対的攻撃がサンプルの周波数スペクトルの位相内のパターンに不均等に影響を及ぼすことが示されている。
モデルの堅牢性向上と位相パターンの維持のトレードオフを改善するために, 最適化された逆振幅発生器 (AAG) を提案する。
論文 参考訳(メタデータ) (2024-10-16T07:18:36Z) - Filtered Randomized Smoothing: A New Defense for Robust Modulation Classification [16.974803642923465]
我々は、任意の攻撃に対して証明可能な防御を提供するロバストな変調分類器を設計する問題について検討する。
スペクトルフィルタリングとランダムな平滑化を組み合わせた新しい防御法であるフィルタランダム化平滑化(FRS)を提案する。
FRSは攻撃信号と良性信号の両方の精度において,ATやRSを含む既存の防御よりも有意に優れていた。
論文 参考訳(メタデータ) (2024-10-08T20:17:25Z) - Carefully Blending Adversarial Training and Purification Improves Adversarial Robustness [1.2289361708127877]
CARSOは、防御のために考案された適応的なエンドツーエンドのホワイトボックス攻撃から自身を守ることができる。
提案手法はCIFAR-10, CIFAR-100, TinyImageNet-200の最先端技術により改善されている。
論文 参考訳(メタデータ) (2023-05-25T09:04:31Z) - Frequency Regularization for Improving Adversarial Robustness [8.912245110734334]
対人訓練(AT)は効果的な防御方法であることが証明されている。
スペクトル領域の出力差を調整するために周波数正則化(FR)を提案する。
本手法は,PGD-20,C&W,オートアタックによる攻撃に対する強靭性を実現する。
論文 参考訳(メタデータ) (2022-12-24T13:14:45Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。