論文の概要: AS-FIBA: Adaptive Selective Frequency-Injection for Backdoor Attack on
Deep Face Restoration
- arxiv url: http://arxiv.org/abs/2403.06430v1
- Date: Mon, 11 Mar 2024 04:44:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:25:14.662244
- Title: AS-FIBA: Adaptive Selective Frequency-Injection for Backdoor Attack on
Deep Face Restoration
- Title(参考訳): AS-FIBA: 深部顔面修復に対するバックドアアタックのための適応選択的選択周波数注入法
- Authors: Zhenbo Song, Wenhao Gao, Kaihao Zhang, Wenhan Luo, Zhaoxin Fan,
Jianfeng Lu
- Abstract要約: ディープラーニングベースの顔復元モデルは、高度なバックドア攻撃のターゲットとなっている。
復元モデルに対する攻撃に適した,ユニークな劣化目標を提案する。
本稿では,適応選択周波数注入バックドアアタック(AS-FIBA)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.953370132140904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based face restoration models, increasingly prevalent in smart
devices, have become targets for sophisticated backdoor attacks. These attacks,
through subtle trigger injection into input face images, can lead to unexpected
restoration outcomes. Unlike conventional methods focused on classification
tasks, our approach introduces a unique degradation objective tailored for
attacking restoration models. Moreover, we propose the Adaptive Selective
Frequency Injection Backdoor Attack (AS-FIBA) framework, employing a neural
network for input-specific trigger generation in the frequency domain,
seamlessly blending triggers with benign images. This results in imperceptible
yet effective attacks, guiding restoration predictions towards subtly degraded
outputs rather than conspicuous targets. Extensive experiments demonstrate the
efficacy of the degradation objective on state-of-the-art face restoration
models. Additionally, it is notable that AS-FIBA can insert effective backdoors
that are more imperceptible than existing backdoor attack methods, including
WaNet, ISSBA, and FIBA.
- Abstract(参考訳): スマートデバイスでますます普及しているディープラーニングベースの顔復元モデルは、高度なバックドア攻撃のターゲットとなっている。
これらの攻撃は、入力された顔画像に微妙なトリガーを注入することで、予期せぬ修復結果をもたらす可能性がある。
従来の分類課題に焦点をあてた手法とは異なり,本手法では,復元モデルに対する一意な劣化目標を導入する。
さらに,周波数領域における入力特異的トリガー生成のためのニューラルネットワークを用いた適応型選択的周波数注入バックドアアタック(as-fiba)フレームワークを提案し,トリガと良性イメージをシームレスに混合する。
この結果は、目立った目標ではなく、微弱に劣化した出力に対する復元予測を導くために、知覚できないが効果的な攻撃をもたらす。
広範な実験により, 劣化目標が最先端顔復元モデルに及ぼす影響が実証された。
さらに、AS-FIBAは、WANet、ISSBA、FIBAなど、既存のバックドア攻撃方法よりも知覚できない効果的なバックドアを挿入できることも注目に値する。
関連論文リスト
- Defending Multimodal Backdoored Models by Repulsive Visual Prompt Tuning [13.802845998402677]
マルチモーダルコントラスト学習モデル(例えばCLIP)は、大規模な画像テキストデータセットから高品質な表現を学習することができる。
彼らはバックドア攻撃に対する重大な脆弱性を示し、深刻な安全性を懸念している。
本稿では,新しい防御手法としてRepulsive Visual Prompt Tuning (RVPT)を提案する。
論文 参考訳(メタデータ) (2024-12-29T08:09:20Z) - Backdoor Attacks against No-Reference Image Quality Assessment Models via a Scalable Trigger [76.36315347198195]
No-Reference Image Quality Assessment (NR-IQA) はコンピュータビジョンシステムの評価と最適化において重要な役割を果たしている。
近年の研究では、NR-IQAモデルが敵攻撃の影響を受けやすいことが示されている。
NR-IQA(BAIQA)に対する新規中毒性バックドアアタックを報告した。
論文 参考訳(メタデータ) (2024-12-10T08:07:19Z) - An Effective and Resilient Backdoor Attack Framework against Deep Neural Networks and Vision Transformers [22.77836113915616]
本稿では,最適なトリガ形状と位置を探索する,注目に基づく新しいマスク生成手法を提案する。
また、損失関数にQuality-of-Experienceという用語を導入し、トリガの透明性値を慎重に調整する。
提案したバックドア攻撃フレームワークは,最先端のバックドア防御に対する堅牢性を示す。
論文 参考訳(メタデータ) (2024-12-09T02:03:27Z) - Uncovering, Explaining, and Mitigating the Superficial Safety of Backdoor Defense [27.471096446155933]
現行のバックドア浄化法における精製後ロバスト性について検討した。
現在の安全浄化法は, バックドア行動の迅速な再学習に弱いことが判明した。
モデル更新を伴うバックドア接続経路の偏差を緩和するチューニングディフェンス,Path-Aware Minimization (PAM)を提案する。
論文 参考訳(メタデータ) (2024-10-13T13:37:36Z) - Face Reconstruction Transfer Attack as Out-of-Distribution Generalization [15.258162177124317]
未確認エンコーダに対する顔攻撃を転送できる顔画像の再構成を目指す。
OODの性質に着想を得て,疑似目標(ALSUV)を用いた平均遅延探索と教師なし検証による顔再構成伝達攻撃(FRTA)の解法を提案する。
論文 参考訳(メタデータ) (2024-07-02T16:21:44Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Backdoor Defense with Machine Unlearning [32.968653927933296]
本研究では,マシン・アンラーニングにより,被害者モデルに注入されたバックドアを消去する新しい手法であるBAERASEを提案する。
BAERASEは、4つのベンチマークデータセットに対して、3種類の最先端バックドア攻撃の攻撃成功率を99%下げることができる。
論文 参考訳(メタデータ) (2022-01-24T09:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。