論文の概要: From a Fourier-Domain Perspective on Adversarial Examples to a Wiener
Filter Defense for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2012.01558v2
- Date: Wed, 21 Apr 2021 15:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 04:06:10.791840
- Title: From a Fourier-Domain Perspective on Adversarial Examples to a Wiener
Filter Defense for Semantic Segmentation
- Title(参考訳): フーリエ領域から見た逆例から意味セグメンテーションのためのワイナーフィルタ防御へ
- Authors: Nikhil Kapoor, Andreas B\"ar, Serin Varghese, Jan David Schneider,
Fabian H\"uger, Peter Schlicht, Tim Fingscheidt
- Abstract要約: ディープ・ニューラル・ネットワークは 敵の摂動に対して 強固ではない
本研究では,周波数領域の観点から,逆問題について検討する。
本稿では,よく知られたWienerフィルタに基づく対角防御手法を提案する。
- 参考スコア(独自算出の注目度): 27.04820989579924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent advancements, deep neural networks are not robust against
adversarial perturbations. Many of the proposed adversarial defense approaches
use computationally expensive training mechanisms that do not scale to complex
real-world tasks such as semantic segmentation, and offer only marginal
improvements. In addition, fundamental questions on the nature of adversarial
perturbations and their relation to the network architecture are largely
understudied. In this work, we study the adversarial problem from a frequency
domain perspective. More specifically, we analyze discrete Fourier transform
(DFT) spectra of several adversarial images and report two major findings:
First, there exists a strong connection between a model architecture and the
nature of adversarial perturbations that can be observed and addressed in the
frequency domain. Second, the observed frequency patterns are largely image-
and attack-type independent, which is important for the practical impact of any
defense making use of such patterns. Motivated by these findings, we
additionally propose an adversarial defense method based on the well-known
Wiener filters that captures and suppresses adversarial frequencies in a
data-driven manner. Our proposed method not only generalizes across unseen
attacks but also beats five existing state-of-the-art methods across two models
in a variety of attack settings.
- Abstract(参考訳): 最近の進歩にもかかわらず、ディープニューラルネットワークは敵対的摂動に対して堅牢ではない。
提案する敵防衛アプローチの多くは、セマンティックセグメンテーションのような複雑な現実世界のタスクにスケールしない計算コストの高いトレーニングメカニズムを使用しており、限界的な改善しか提供していない。
さらに、敵の摂動の性質とネットワークアーキテクチャとの関係に関する根本的な疑問が概ね検討されている。
本研究では,周波数領域の観点から,逆問題について検討する。
より具体的には、複数の敵画像の離散フーリエ変換(dft)スペクトルを分析し、2つの主要な発見を報告する。
第2に、観察された周波数パターンは、主に画像と攻撃型独立であり、そのようなパターンを使用する防御の実用的影響に重要である。
また,これらの知見に動機づけられて,データ駆動方式で敵周波数を捕捉・抑制するよく知られたワイナーフィルタに基づく敵防御法を提案する。
提案手法は、未確認の攻撃を一般化するだけでなく、2つのモデルにまたがる既存の5つの攻撃手法を様々な攻撃設定で破る。
関連論文リスト
- FACL-Attack: Frequency-Aware Contrastive Learning for Transferable Adversarial Attacks [42.18755809782401]
ディープニューラルネットワークは、敵対的な例の本質的に伝達可能な性質のため、セキュリティリスクに弱いことが知られている。
本稿では,周波数領域において,クロスドメインとクロスモデルの両方でロバストな逆例を生成するための特徴的対照的なアプローチを提案する。
我々は,大規模なクロスドメインおよびクロスモデル実験を通じて生成した対向摂動の強い伝達性を示す。
論文 参考訳(メタデータ) (2024-07-30T08:50:06Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - A Frequency Perspective of Adversarial Robustness [72.48178241090149]
理論的および経験的知見を参考に,周波数に基づく対向例の理解について述べる。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
本稿では、一般に観測される精度対ロバスト性トレードオフの周波数に基づく説明法を提案する。
論文 参考訳(メタデータ) (2021-10-26T19:12:34Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。