論文の概要: WaveAttack: Asymmetric Frequency Obfuscation-based Backdoor Attacks
Against Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2310.11595v2
- Date: Thu, 19 Oct 2023 14:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 11:13:59.158923
- Title: WaveAttack: Asymmetric Frequency Obfuscation-based Backdoor Attacks
Against Deep Neural Networks
- Title(参考訳): WaveAttack:非対称周波数難読化に基づくディープニューラルネットワークに対するバックドア攻撃
- Authors: Jun Xia, Zhihao Yue, Yingbo Zhou, Zhiwei Ling, Xian Wei, Mingsong Chen
- Abstract要約: バックドア攻撃は 敵によって設計されている 深層ニューラルネットワーク予測を 誤解させるために 訓練サンプルと訓練プロセスを操作する
本稿では,ウェーブアタック(WaveAttack)という新しいバックドア攻撃手法を提案し,その弱点を克服する。
WaveAttackは高いステルス性と有効性を実現すると同時に、画像の忠実性において最先端(SOTA)バックドア攻撃法よりも優れる。
- 参考スコア(独自算出の注目度): 36.00852943301727
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Due to the popularity of Artificial Intelligence (AI) technology, numerous
backdoor attacks are designed by adversaries to mislead deep neural network
predictions by manipulating training samples and training processes. Although
backdoor attacks are effective in various real scenarios, they still suffer
from the problems of both low fidelity of poisoned samples and non-negligible
transfer in latent space, which make them easily detectable by existing
backdoor detection algorithms. To overcome the weakness, this paper proposes a
novel frequency-based backdoor attack method named WaveAttack, which obtains
image high-frequency features through Discrete Wavelet Transform (DWT) to
generate backdoor triggers. Furthermore, we introduce an asymmetric frequency
obfuscation method, which can add an adaptive residual in the training and
inference stage to improve the impact of triggers and further enhance the
effectiveness of WaveAttack. Comprehensive experimental results show that
WaveAttack not only achieves higher stealthiness and effectiveness, but also
outperforms state-of-the-art (SOTA) backdoor attack methods in the fidelity of
images by up to 28.27\% improvement in PSNR, 1.61\% improvement in SSIM, and
70.59\% reduction in IS.
- Abstract(参考訳): 人工知能(AI)技術の人気のため、多くのバックドア攻撃は、トレーニングサンプルとトレーニングプロセスを操作することで、ディープニューラルネットワーク予測を誤解させるように設計されている。
バックドア攻撃は様々な現実のシナリオで有効であるが、有毒なサンプルの忠実度が低いことと、潜在空間における無視できない転送の問題があるため、既存のバックドア検出アルゴリズムによって容易に検出できる。
この弱点を克服するために,DWT(Drete Wavelet Transform)を用いて画像の高周波数特性を取得し,バックドアトリガを生成するWaveAttackという新しいバックドア攻撃手法を提案する。
さらに、トレーニングおよび推論段階で適応的な残差を付加し、トリガの影響を改善し、WaveAttackの有効性をさらに高める非対称周波数難読化法を導入する。
総合的な実験結果から、WaveAttackは高いステルスネスと有効性を達成するだけでなく、PSNRの28.27倍、SSIMの1.61倍、ISの70.59倍、画像の忠実度において、最先端(SOTA)バックドア攻撃法よりも優れていた。
関連論文リスト
- AS-FIBA: Adaptive Selective Frequency-Injection for Backdoor Attack on
Deep Face Restoration [43.953370132140904]
ディープラーニングベースの顔復元モデルは、高度なバックドア攻撃のターゲットとなっている。
復元モデルに対する攻撃に適した,ユニークな劣化目標を提案する。
本稿では,適応選択周波数注入バックドアアタック(AS-FIBA)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T04:44:26Z) - Low-Frequency Black-Box Backdoor Attack via Evolutionary Algorithm [12.711880028935315]
畳み込みニューラルネットワーク(CNN)はコンピュータビジョンタスクで成功したが、バックドア攻撃に弱い。
周波数スペクトルの低周波成分を最小限に摂動させる強力な低周波ブラックボックスバックドアアタック(LFBA)を提案する。
実世界のデータセットの実験は、画像処理操作と最先端のバックドア防御に対するLFBAの有効性と堅牢性を検証する。
論文 参考訳(メタデータ) (2024-02-23T23:36:36Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Gradient Shaping: Enhancing Backdoor Attack Against Reverse Engineering [39.11590429626592]
勾配に基づくトリガーインバージョンは、最も効果的なバックドア検出手法の1つであると考えられている。
本研究は, 既存の攻撃は, トリガーキャリング入力に伴う変化率の低いバックドアを注入する傾向にあることを示した。
textitGradient Shaping(GRASP)と呼ばれる新たな攻撃強化を設計し、トリガに関するバックドアモデルの変更率を削減する。
論文 参考訳(メタデータ) (2023-01-29T01:17:46Z) - Backdoor Attacks for Remote Sensing Data with Wavelet Transform [14.50261153230204]
本稿では,リモートセンシングデータに対するバックドア攻撃の系統的解析を行う。
そこで本研究では, 有害画像にトリガ画像を注入することで, 目に見えない攻撃を可能にする新しいウェーブレット変換ベースアタック(WABA)手法を提案する。
その単純さにもかかわらず、提案手法は攻撃成功率の高い最先端のディープラーニングモデルをかなり騙すことができる。
論文 参考訳(メタデータ) (2022-11-15T10:49:49Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - WaveTransform: Crafting Adversarial Examples via Input Decomposition [69.01794414018603]
本稿では,低周波サブバンドと高周波サブバンドに対応する逆雑音を生成するWaveTransformを紹介する。
実験により,提案攻撃は防衛アルゴリズムに対して有効であり,CNN間での転送も可能であることが示された。
論文 参考訳(メタデータ) (2020-10-29T17:16:59Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。