論文の概要: FACL-Attack: Frequency-Aware Contrastive Learning for Transferable Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2407.20653v1
- Date: Tue, 30 Jul 2024 08:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 17:49:53.103477
- Title: FACL-Attack: Frequency-Aware Contrastive Learning for Transferable Adversarial Attacks
- Title(参考訳): FACL-Attack: 移動可能な敵攻撃に対する周波数対応コントラスト学習
- Authors: Hunmin Yang, Jongoh Jeong, Kuk-Jin Yoon,
- Abstract要約: ディープニューラルネットワークは、敵対的な例の本質的に伝達可能な性質のため、セキュリティリスクに弱いことが知られている。
本稿では,周波数領域において,クロスドメインとクロスモデルの両方でロバストな逆例を生成するための特徴的対照的なアプローチを提案する。
我々は,大規模なクロスドメインおよびクロスモデル実験を通じて生成した対向摂動の強い伝達性を示す。
- 参考スコア(独自算出の注目度): 42.18755809782401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are known to be vulnerable to security risks due to the inherent transferable nature of adversarial examples. Despite the success of recent generative model-based attacks demonstrating strong transferability, it still remains a challenge to design an efficient attack strategy in a real-world strict black-box setting, where both the target domain and model architectures are unknown. In this paper, we seek to explore a feature contrastive approach in the frequency domain to generate adversarial examples that are robust in both cross-domain and cross-model settings. With that goal in mind, we propose two modules that are only employed during the training phase: a Frequency-Aware Domain Randomization (FADR) module to randomize domain-variant low- and high-range frequency components and a Frequency-Augmented Contrastive Learning (FACL) module to effectively separate domain-invariant mid-frequency features of clean and perturbed image. We demonstrate strong transferability of our generated adversarial perturbations through extensive cross-domain and cross-model experiments, while keeping the inference time complexity.
- Abstract(参考訳): ディープニューラルネットワークは、敵対的な例の本質的に伝達可能な性質のため、セキュリティリスクに弱いことが知られている。
強力な転送可能性を示す最近の生成モデルベースの攻撃の成功にもかかわらず、ターゲットドメインとモデルアーキテクチャの両方が不明な現実の厳密なブラックボックス設定で効率的な攻撃戦略を設計することは依然として課題である。
本稿では、周波数領域における特徴の対照的なアプローチを探求し、クロスドメインとクロスモデルの両方で堅牢な逆例を生成する。
この目標を念頭に置いて、周波数対応ドメインランダム化(FADR)モジュールと、周波数対応コントラスト学習(FACL)モジュールの2つのモジュールを提案し、クリーンかつ摂動画像のドメイン不変中周波特徴を効果的に分離する。
予測時間の複雑さを保ちながら、広範囲なクロスドメインおよびクロスモデル実験を通じて生成した対向摂動の強い伝達性を示す。
関連論文リスト
- StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Towards Transferable Adversarial Attacks with Centralized Perturbation [4.689122927344728]
逆転性により未知のディープニューラルネットワーク(DNN)に対するブラックボックス攻撃が可能に
現行の転送可能な攻撃は、画像全体に対する敵の摂動を引き起こし、結果として過度なノイズが発生し、ソースモデルに過度に適合する。
本稿では,周波数領域における微細な摂動を最適化し,集中的な摂動を生成するトランスファー可能な対向攻撃を提案する。
論文 参考訳(メタデータ) (2023-12-11T08:25:50Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Frequency Domain Adversarial Training for Robust Volumetric Medical
Segmentation [111.61781272232646]
医療などの重要な応用において、ディープラーニングモデルの堅牢性を確保することが不可欠である。
本稿では,ボリューム医療画像分割モデルに対する3次元周波数領域対逆攻撃について述べる。
論文 参考訳(メタデータ) (2023-07-14T10:50:43Z) - Randomized Adversarial Style Perturbations for Domain Generalization [49.888364462991234]
本稿では,RASP(Randomized Adversarial Style Perturbation)と呼ばれる新しい領域一般化手法を提案する。
提案アルゴリズムは, ランダムに選択されたクラスに対して, 対角方向の特徴のスタイルを乱し, 予期せぬ対象領域で観測される予期せぬスタイルに誤解されないよう, モデルを学習させる。
提案アルゴリズムは,様々なベンチマークによる広範な実験により評価され,特に大規模ベンチマークにおいて,領域一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2023-04-04T17:07:06Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - From a Fourier-Domain Perspective on Adversarial Examples to a Wiener
Filter Defense for Semantic Segmentation [27.04820989579924]
ディープ・ニューラル・ネットワークは 敵の摂動に対して 強固ではない
本研究では,周波数領域の観点から,逆問題について検討する。
本稿では,よく知られたWienerフィルタに基づく対角防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-02T22:06:04Z) - Frequency-based Automated Modulation Classification in the Presence of
Adversaries [17.930854969511046]
本稿では、転送可能な対角干渉に耐えられるディープラーニングモデルからなる新しい受信アーキテクチャを提案する。
本研究では、リカレントニューラルネットワーク(RNN)では30%以上、畳み込みニューラルネットワーク(CNN)では50%以上の性能向上を示す。
論文 参考訳(メタデータ) (2020-11-02T17:12:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。