論文の概要: A Frequency Perspective of Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2111.00861v1
- Date: Tue, 26 Oct 2021 19:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-07 11:08:11.903090
- Title: A Frequency Perspective of Adversarial Robustness
- Title(参考訳): 対人ロバストネスの周波数的視点
- Authors: Shishira R Maiya, Max Ehrlich, Vatsal Agarwal, Ser-Nam Lim, Tom
Goldstein, Abhinav Shrivastava
- Abstract要約: 理論的および経験的知見を参考に,周波数に基づく対向例の理解について述べる。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
本稿では、一般に観測される精度対ロバスト性トレードオフの周波数に基づく説明法を提案する。
- 参考スコア(独自算出の注目度): 72.48178241090149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples pose a unique challenge for deep learning systems.
Despite recent advances in both attacks and defenses, there is still a lack of
clarity and consensus in the community about the true nature and underlying
properties of adversarial examples. A deep understanding of these examples can
provide new insights towards the development of more effective attacks and
defenses. Driven by the common misconception that adversarial examples are
high-frequency noise, we present a frequency-based understanding of adversarial
examples, supported by theoretical and empirical findings. Our analysis shows
that adversarial examples are neither in high-frequency nor in low-frequency
components, but are simply dataset dependent. Particularly, we highlight the
glaring disparities between models trained on CIFAR-10 and ImageNet-derived
datasets. Utilizing this framework, we analyze many intriguing properties of
training robust models with frequency constraints, and propose a
frequency-based explanation for the commonly observed accuracy vs. robustness
trade-off.
- Abstract(参考訳): 敵対的な例は、ディープラーニングシステムに固有の課題をもたらす。
近年の攻撃と防衛の進展にもかかわらず、敵の例の真の性質と根底にある性質について、コミュニティには明確さとコンセンサスがない。
これらの例を深く理解することで、より効果的な攻撃と防御の開発に対する新たな洞察を得ることができる。
逆例が高周波雑音であるという一般的な誤解に触発され,理論的および経験的知見によって支持される逆例の周波数ベースの理解を示す。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
特に,CIFAR-10でトレーニングされたモデルとImageNet由来のデータセットとの相違点を強調した。
この枠組みを用いて,周波数制約付きロバストモデルの多くの興味をそそる特性を解析し,ロバスト性トレードオフに対する一般観測精度の周波数ベース説明を提案する。
関連論文リスト
- Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Towards a Novel Perspective on Adversarial Examples Driven by Frequency [7.846634028066389]
異なる周波数帯域を組み合わせたブラックボックス逆攻撃アルゴリズムを提案する。
複数のデータセットとモデルで実施された実験により、低周波帯域と低周波帯域の高周波成分を組み合わせることで、攻撃効率が著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-16T00:58:46Z) - Robustness of Deep Neural Networks for Micro-Doppler Radar
Classification [1.3654846342364308]
同じデータでトレーニングされ、テストされた2つの深い畳み込みアーキテクチャが評価される。
モデルは敵の例に影響を受けやすい。
ドップラー時間よりもケイデンス速度図の表現は、自然に敵の例に対して免疫的であることが示されている。
論文 参考訳(メタデータ) (2024-02-21T09:37:17Z) - A Training Rate and Survival Heuristic for Inference and Robustness Evaluation (TRASHFIRE) [1.622320874892682]
この研究は、特定のモデルハイパーパラメータが、相手の存在下でモデルの性能にどのように影響するかを理解し予測する問題に対処する。
提案手法では、サバイバルモデル、最悪の例、コスト認識分析を用いて、特定のモデル変更を正確かつ正確に拒否する。
提案手法を用いて、最も単純なホワイトボックス攻撃に対して、ResNetは絶望的に反対であることを示す。
論文 参考訳(メタデータ) (2024-01-24T19:12:37Z) - Towards Building More Robust Models with Frequency Bias [8.510441741759758]
本稿では,中間特徴表現の低周波成分と高周波成分を適応的に再構成するプラグイン・アンド・プレイ・モジュールを提案する。
実験により,提案するモジュールは,任意の対戦型トレーニングフレームワークに容易に組み込むことができることが示された。
論文 参考訳(メタデータ) (2023-07-19T05:46:56Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - From a Fourier-Domain Perspective on Adversarial Examples to a Wiener
Filter Defense for Semantic Segmentation [27.04820989579924]
ディープ・ニューラル・ネットワークは 敵の摂動に対して 強固ではない
本研究では,周波数領域の観点から,逆問題について検討する。
本稿では,よく知られたWienerフィルタに基づく対角防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-02T22:06:04Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。