論文の概要: Evaluating Adversarial Robustness in the Spatial Frequency Domain
- arxiv url: http://arxiv.org/abs/2405.06345v1
- Date: Fri, 10 May 2024 09:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 16:07:56.584970
- Title: Evaluating Adversarial Robustness in the Spatial Frequency Domain
- Title(参考訳): 空間周波数領域における対向ロバスト性の評価
- Authors: Keng-Hsin Liao, Chin-Yuan Yeh, Hsi-Wen Chen, Ming-Syan Chen,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンタスクの大部分を占めてきた。
敵攻撃に対するCNNの脆弱性は、これらのモデルを安全クリティカルなアプリケーションにデプロイすることを懸念している。
本稿では,周波数領域におけるCNNモデルの脆弱性を探索する実験的検討を行う。
- 参考スコア(独自算出の注目度): 13.200404022208858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) have dominated the majority of computer vision tasks. However, CNNs' vulnerability to adversarial attacks has raised concerns about deploying these models to safety-critical applications. In contrast, the Human Visual System (HVS), which utilizes spatial frequency channels to process visual signals, is immune to adversarial attacks. As such, this paper presents an empirical study exploring the vulnerability of CNN models in the frequency domain. Specifically, we utilize the discrete cosine transform (DCT) to construct the Spatial-Frequency (SF) layer to produce a block-wise frequency spectrum of an input image and formulate Spatial Frequency CNNs (SF-CNNs) by replacing the initial feature extraction layers of widely-used CNN backbones with the SF layer. Through extensive experiments, we observe that SF-CNN models are more robust than their CNN counterparts under both white-box and black-box attacks. To further explain the robustness of SF-CNNs, we compare the SF layer with a trainable convolutional layer with identical kernel sizes using two mixing strategies to show that the lower frequency components contribute the most to the adversarial robustness of SF-CNNs. We believe our observations can guide the future design of robust CNN models.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンタスクの大部分を占めてきた。
しかし、CNNの敵攻撃に対する脆弱性は、これらのモデルを安全クリティカルなアプリケーションにデプロイすることを懸念している。
対照的に、空間周波数チャネルを用いて視覚信号を処理するヒューマン・ビジュアル・システム(HVS)は、敵の攻撃に対して免疫を持つ。
そこで本研究では,周波数領域におけるCNNモデルの脆弱性を探索する実験的検討を行った。
具体的には、離散コサイン変換(DCT)を用いて、空間周波数(SF)層を構築し、入力画像のブロックワイド周波数スペクトルを生成し、広く使用されているCNNバックボーンの初期特徴抽出層をSF層に置き換えて、空間周波数CNN(SF-CNN)を定式化する。
大規模な実験により、SF-CNNモデルは、ホワイトボックスとブラックボックスの両方の攻撃下でのCNNモデルよりも堅牢であることがわかった。
SF-CNNのロバスト性をさらに説明するために、SF-CNNの低周波成分がSF-CNNの対向ロバスト性に最も寄与することを示すために、2つの混合戦略を用いて、SF層とトレーニング可能な畳み込み層を同一のカーネルサイズで比較した。
我々の観測は、堅牢なCNNモデルの将来の設計を導くことができると信じている。
関連論文リスト
- FrequencyLowCut Pooling -- Plug & Play against Catastrophic Overfitting [12.062691258844628]
本稿では,任意のCNNアーキテクチャに簡単に接続可能な,自由なダウンサンプリング操作を提案する。
実験の結果,単純かつ高速なFGSM逆行訓練と組み合わせることで,超パラメータフリー演算子がモデルロバスト性を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2022-04-01T14:51:28Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image Transformation [94.30136898739448]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - CIFS: Improving Adversarial Robustness of CNNs via Channel-wise
Importance-based Feature Selection [186.34889055196925]
本稿では,チャネルワイドアクティベーションの観点から,CNNの対角的ロバスト性について検討する。
我々は,敵対的学習(AT)がCNNのチャネルワイドなアクティベーションと自然的データとを一致させることで,CNNの信頼性を高めることを観察した。
我々は、新しいメカニズム、すなわち、アンダーラインChannel-wise Underline Importance-based UnderlineFeature UnderlineSelection (CIFS)を導入する。
論文 参考訳(メタデータ) (2021-02-10T08:16:43Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Color Channel Perturbation Attacks for Fooling Convolutional Neural
Networks and A Defense Against Such Attacks [16.431689066281265]
Conalvolutional Neural Networks(CNN)は、強力なデータ依存型階層的特徴抽出方法として登場した。
ネットワークがトレーニングサンプルを非常に容易に満たしていることが観察される。
CNNを騙すために,カラーチャネル摂動(CCP)攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:35:29Z) - Extreme Value Preserving Networks [65.2037926048262]
最近の証拠は、畳み込みニューラルネットワーク(CNN)がテクスチャに偏りがあることを示しており、CNNはテクスチャに逆らう摂動に対して損なわれない。
本稿では,SIFTの優れた特性を活用してCNNアーキテクチャを改良し,精度と堅牢性を向上させることを目的とする。
論文 参考訳(メタデータ) (2020-11-17T02:06:52Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Enhancing Intrinsic Adversarial Robustness via Feature Pyramid Decoder [11.701729403940798]
本稿では,ニューラルネットワークの本質的堅牢性を高めるための攻撃非依存型防御フレームワークを提案する。
私たちのフレームワークは、すべてのブロックベースの畳み込みニューラルネットワーク(CNN)に適用されます。
論文 参考訳(メタデータ) (2020-05-06T01:40:26Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。