論文の概要: Counterfactual Explanations for Face Forgery Detection via Adversarial Removal of Artifacts
- arxiv url: http://arxiv.org/abs/2404.08341v1
- Date: Fri, 12 Apr 2024 09:13:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 15:26:16.034198
- Title: Counterfactual Explanations for Face Forgery Detection via Adversarial Removal of Artifacts
- Title(参考訳): アーチファクトの対向的除去による顔偽造検出のための対向的説明
- Authors: Yang Li, Songlin Yang, Wei Wang, Ziwen He, Bo Peng, Jing Dong,
- Abstract要約: ディープフェイクとして知られる、非常にリアルなAI生成顔偽造は、深刻な社会的懸念を引き起こしている。
本稿では,人工物除去の観点からの顔偽造検出の非現実的説明を行う。
本手法は,90%以上の攻撃成功率と優れた攻撃伝達性を実現する。
- 参考スコア(独自算出の注目度): 23.279652897139286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Highly realistic AI generated face forgeries known as deepfakes have raised serious social concerns. Although DNN-based face forgery detection models have achieved good performance, they are vulnerable to latest generative methods that have less forgery traces and adversarial attacks. This limitation of generalization and robustness hinders the credibility of detection results and requires more explanations. In this work, we provide counterfactual explanations for face forgery detection from an artifact removal perspective. Specifically, we first invert the forgery images into the StyleGAN latent space, and then adversarially optimize their latent representations with the discrimination supervision from the target detection model. We verify the effectiveness of the proposed explanations from two aspects: (1) Counterfactual Trace Visualization: the enhanced forgery images are useful to reveal artifacts by visually contrasting the original images and two different visualization methods; (2) Transferable Adversarial Attacks: the adversarial forgery images generated by attacking the detection model are able to mislead other detection models, implying the removed artifacts are general. Extensive experiments demonstrate that our method achieves over 90% attack success rate and superior attack transferability. Compared with naive adversarial noise methods, our method adopts both generative and discriminative model priors, and optimize the latent representations in a synthesis-by-analysis way, which forces the search of counterfactual explanations on the natural face manifold. Thus, more general counterfactual traces can be found and better adversarial attack transferability can be achieved.
- Abstract(参考訳): ディープフェイクとして知られる、非常にリアルなAI生成顔偽造は、深刻な社会的懸念を引き起こしている。
DNNベースの顔偽造検出モデルは優れた性能を達成しているが、偽造トレースや敵攻撃の少ない最新の生成手法に弱い。
この一般化と堅牢性の制限は、検出結果の信頼性を妨げ、より多くの説明を必要とする。
本研究では,人工物除去の観点からの顔偽造検出の事実的説明を行う。
具体的には、まず、偽画像をStyleGAN潜在空間に反転させ、次にターゲット検出モデルから識別監督を行い、その潜在表現を逆向きに最適化する。
提案手法の有効性を2つの側面から検証する:(1)非現実的トレース可視化:強化された偽画像は、原画像と2つの異なる可視化方法とを視覚的に対比することで、人工物を明らかにするのに有用である。
実験の結果,攻撃成功率は90%以上であり,高い攻撃伝達性を示した。
自然対向雑音法と比較して,本手法は生成モデルと識別モデルの両方の先行モデルを採用し,その潜在表現を解析的手法で最適化することにより,自然面多様体上の反実的説明の探索を強制する。
したがって、より一般的な対物的トレースを見つけることができ、より良い対物的攻撃伝達性を達成することができる。
関連論文リスト
- MVPatch: More Vivid Patch for Adversarial Camouflaged Attacks on Object
Detectors in the Physical World [7.492058377326217]
我々は、Mor Vivid Patch(MVPatch)として知られる敵パッチを生成するデュアルパーセプションベースのアタックフレームワークを導入する。
本発明の枠組みは、モデル知覚劣化方法と人知覚改善方法とから構成される。
本手法では, 対象物検出器の被写体信頼度を低減し, 対向パッチの伝達性を向上させるモデル認識に基づく手法を用いる。
論文 参考訳(メタデータ) (2023-12-29T01:52:22Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Evading Forensic Classifiers with Attribute-Conditioned Adversarial
Faces [6.105361899083232]
本研究では,特定の属性セットを用いて,敵対的な偽の顔を生成することができることを示す。
本稿では,StyleGANの機能空間内の逆潜時符号を探索するフレームワークを提案する。
また,メタラーニングに基づく最適化手法を提案し,未知のターゲットモデル上でのトランスファー可能な性能を実現する。
論文 参考訳(メタデータ) (2023-06-22T17:59:55Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。