論文の概要: AS-FIBA: Adaptive Selective Frequency-Injection for Backdoor Attack on
Deep Face Restoration
- arxiv url: http://arxiv.org/abs/2403.06430v1
- Date: Mon, 11 Mar 2024 04:44:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:25:14.662244
- Title: AS-FIBA: Adaptive Selective Frequency-Injection for Backdoor Attack on
Deep Face Restoration
- Title(参考訳): AS-FIBA: 深部顔面修復に対するバックドアアタックのための適応選択的選択周波数注入法
- Authors: Zhenbo Song, Wenhao Gao, Kaihao Zhang, Wenhan Luo, Zhaoxin Fan,
Jianfeng Lu
- Abstract要約: ディープラーニングベースの顔復元モデルは、高度なバックドア攻撃のターゲットとなっている。
復元モデルに対する攻撃に適した,ユニークな劣化目標を提案する。
本稿では,適応選択周波数注入バックドアアタック(AS-FIBA)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.953370132140904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based face restoration models, increasingly prevalent in smart
devices, have become targets for sophisticated backdoor attacks. These attacks,
through subtle trigger injection into input face images, can lead to unexpected
restoration outcomes. Unlike conventional methods focused on classification
tasks, our approach introduces a unique degradation objective tailored for
attacking restoration models. Moreover, we propose the Adaptive Selective
Frequency Injection Backdoor Attack (AS-FIBA) framework, employing a neural
network for input-specific trigger generation in the frequency domain,
seamlessly blending triggers with benign images. This results in imperceptible
yet effective attacks, guiding restoration predictions towards subtly degraded
outputs rather than conspicuous targets. Extensive experiments demonstrate the
efficacy of the degradation objective on state-of-the-art face restoration
models. Additionally, it is notable that AS-FIBA can insert effective backdoors
that are more imperceptible than existing backdoor attack methods, including
WaNet, ISSBA, and FIBA.
- Abstract(参考訳): スマートデバイスでますます普及しているディープラーニングベースの顔復元モデルは、高度なバックドア攻撃のターゲットとなっている。
これらの攻撃は、入力された顔画像に微妙なトリガーを注入することで、予期せぬ修復結果をもたらす可能性がある。
従来の分類課題に焦点をあてた手法とは異なり,本手法では,復元モデルに対する一意な劣化目標を導入する。
さらに,周波数領域における入力特異的トリガー生成のためのニューラルネットワークを用いた適応型選択的周波数注入バックドアアタック(as-fiba)フレームワークを提案し,トリガと良性イメージをシームレスに混合する。
この結果は、目立った目標ではなく、微弱に劣化した出力に対する復元予測を導くために、知覚できないが効果的な攻撃をもたらす。
広範な実験により, 劣化目標が最先端顔復元モデルに及ぼす影響が実証された。
さらに、AS-FIBAは、WANet、ISSBA、FIBAなど、既存のバックドア攻撃方法よりも知覚できない効果的なバックドアを挿入できることも注目に値する。
関連論文リスト
- Uncovering, Explaining, and Mitigating the Superficial Safety of Backdoor Defense [27.471096446155933]
現行のバックドア浄化法における精製後ロバスト性について検討した。
現在の安全浄化法は, バックドア行動の迅速な再学習に弱いことが判明した。
モデル更新を伴うバックドア接続経路の偏差を緩和するチューニングディフェンス,Path-Aware Minimization (PAM)を提案する。
論文 参考訳(メタデータ) (2024-10-13T13:37:36Z) - Face Reconstruction Transfer Attack as Out-of-Distribution Generalization [15.258162177124317]
未確認エンコーダに対する顔攻撃を転送できる顔画像の再構成を目指す。
OODの性質に着想を得て,疑似目標(ALSUV)を用いた平均遅延探索と教師なし検証による顔再構成伝達攻撃(FRTA)の解法を提案する。
論文 参考訳(メタデータ) (2024-07-02T16:21:44Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - WaveAttack: Asymmetric Frequency Obfuscation-based Backdoor Attacks
Against Deep Neural Networks [36.00852943301727]
バックドア攻撃は 敵によって設計されている 深層ニューラルネットワーク予測を 誤解させるために 訓練サンプルと訓練プロセスを操作する
本稿では,ウェーブアタック(WaveAttack)という新しいバックドア攻撃手法を提案し,その弱点を克服する。
WaveAttackは高いステルス性と有効性を実現すると同時に、画像の忠実性において最先端(SOTA)バックドア攻撃法よりも優れる。
論文 参考訳(メタデータ) (2023-10-17T21:43:42Z) - Shared Adversarial Unlearning: Backdoor Mitigation by Unlearning Shared
Adversarial Examples [67.66153875643964]
バックドア攻撃は、機械学習モデルに対する深刻なセキュリティ脅威である。
本稿では,小さなクリーンデータセットを用いて,バックドアモデルの浄化作業について検討する。
バックドアリスクと敵的リスクの関連性を確立することにより、バックドアリスクに対する新たな上限を導出する。
論文 参考訳(メタデータ) (2023-07-20T03:56:04Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Backdoor Defense with Machine Unlearning [32.968653927933296]
本研究では,マシン・アンラーニングにより,被害者モデルに注入されたバックドアを消去する新しい手法であるBAERASEを提案する。
BAERASEは、4つのベンチマークデータセットに対して、3種類の最先端バックドア攻撃の攻撃成功率を99%下げることができる。
論文 参考訳(メタデータ) (2022-01-24T09:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。