論文の概要: Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection
- arxiv url: http://arxiv.org/abs/2402.11473v1
- Date: Sun, 18 Feb 2024 06:31:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 20:58:59.135901
- Title: Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection
- Title(参考訳): 有毒偽造顔:顔偽造検出におけるバックドア攻撃へ向けて
- Authors: Jiawei Liang, Siyuan Liang, Aishan Liu, Xiaojun Jia, Junhao Kuang,
Xiaochun Cao
- Abstract要約: 本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
- 参考スコア(独自算出の注目度): 62.595450266262645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of face forgery techniques has raised significant concerns
within society, thereby motivating the development of face forgery detection
methods. These methods aim to distinguish forged faces from genuine ones and
have proven effective in practical applications. However, this paper introduces
a novel and previously unrecognized threat in face forgery detection scenarios
caused by backdoor attack. By embedding backdoors into models and incorporating
specific trigger patterns into the input, attackers can deceive detectors into
producing erroneous predictions for forged faces. To achieve this goal, this
paper proposes \emph{Poisoned Forgery Face} framework, which enables
clean-label backdoor attacks on face forgery detectors. Our approach involves
constructing a scalable trigger generator and utilizing a novel convolving
process to generate translation-sensitive trigger patterns. Moreover, we employ
a relative embedding method based on landmark-based regions to enhance the
stealthiness of the poisoned samples. Consequently, detectors trained on our
poisoned samples are embedded with backdoors. Notably, our approach surpasses
SoTA backdoor baselines with a significant improvement in attack success rate
(+16.39\% BD-AUC) and reduction in visibility (-12.65\% $L_\infty$).
Furthermore, our attack exhibits promising performance against backdoor
defenses. We anticipate that this paper will draw greater attention to the
potential threats posed by backdoor attacks in face forgery detection
scenarios. Our codes will be made available at
\url{https://github.com/JWLiang007/PFF}
- Abstract(参考訳): 顔偽造技術の普及は社会に重大な関心を喚起し、顔偽造検出法の開発を動機付けている。
これらの方法は、偽造された顔と本物の顔とを区別することを目的としており、実用的に有効であることが証明されている。
しかし,本論文では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込み、特定のトリガーパターンを入力に組み込むことで、攻撃者は検出器を欺き、偽造された顔に対する誤った予測を生成することができる。
この目的を達成するために,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にする 'emph{Poisoned Forgery Face} フレームワークを提案する。
提案手法は,スケーラブルなトリガジェネレータの構築と,翻訳に敏感なトリガパターンを生成するための新しいコンボルディングプロセスの利用である。
また, 被毒試料のステルス性を高めるために, ランドマークベース領域に基づく相対的埋込法を適用した。
その結果、有毒サンプルで訓練された検出器にはバックドアが埋め込まれる。
特に,攻撃成功率 (+16.39\% BD-AUC) と可視性 (-12.65\% $L_\infty$) の低下により,SoTAのバックドアベースラインを超えている。
さらに,攻撃は後方防御に対する有望な性能を示す。
本論文は, 偽造検出シナリオにおけるバックドア攻撃による潜在的な脅威に, より注意を向けることが期待できる。
我々のコードは \url{https://github.com/JWLiang007/PFF} で利用可能になる。
関連論文リスト
- MakeupAttack: Feature Space Black-box Backdoor Attack on Face Recognition via Makeup Transfer [6.6251662169603005]
メイクアップアタック(MakeupAttack)と呼ばれるメイクアップトランスファーによる顔認証に対するバックドア攻撃を提案する。
本攻撃では,提案したメイクスタイルトリガーの微妙な特徴を学習するための反復訓練パラダイムを設計する。
提案手法は, モデル性能を損なうことなく, 有効性, 堅牢性, 自然性, ステルス性を保ちながら, 既存の防御を回避できることを示す。
論文 参考訳(メタデータ) (2024-08-22T11:39:36Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。