論文の概要: 2D-Malafide: Adversarial Attacks Against Face Deepfake Detection Systems
- arxiv url: http://arxiv.org/abs/2408.14143v1
- Date: Mon, 26 Aug 2024 09:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 14:23:20.241039
- Title: 2D-Malafide: Adversarial Attacks Against Face Deepfake Detection Systems
- Title(参考訳): 2D-マラフィド:顔深度検出システムに対する敵攻撃
- Authors: Chiara Galdi, Michele Panariello, Massimiliano Todisco, Nicholas Evans,
- Abstract要約: 2D-Malafideは, 顔深度検出システムに悪影響を与えるように設計された, 新規で軽量な対向攻撃である。
従来の加法ノイズアプローチとは異なり、2D-マラフィドは少数のフィルタ係数を最適化し、頑健な逆方向の摂動を生成する。
FaceForensics++データセットを使用して実施された実験では、2D-Malafideがホワイトボックスとブラックボックスの設定の両方で検出性能を著しく低下させることが示された。
- 参考スコア(独自算出の注目度): 8.717726409183175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce 2D-Malafide, a novel and lightweight adversarial attack designed to deceive face deepfake detection systems. Building upon the concept of 1D convolutional perturbations explored in the speech domain, our method leverages 2D convolutional filters to craft perturbations which significantly degrade the performance of state-of-the-art face deepfake detectors. Unlike traditional additive noise approaches, 2D-Malafide optimises a small number of filter coefficients to generate robust adversarial perturbations which are transferable across different face images. Experiments, conducted using the FaceForensics++ dataset, demonstrate that 2D-Malafide substantially degrades detection performance in both white-box and black-box settings, with larger filter sizes having the greatest impact. Additionally, we report an explainability analysis using GradCAM which illustrates how 2D-Malafide misleads detection systems by altering the image areas used most for classification. Our findings highlight the vulnerability of current deepfake detection systems to convolutional adversarial attacks as well as the need for future work to enhance detection robustness through improved image fidelity constraints.
- Abstract(参考訳): 2D-Malafideは, 対面深度検出システム(ディープフェイク検出システム)を騙すように設計された, 新規で軽量な対向攻撃である。
音声領域で探索された1次元畳み込み摂動の概念に基づいて,本手法は2次元畳み込みフィルタを用いて、最先端の深度検出器の性能を著しく低下させる。
従来の加法ノイズアプローチとは異なり、2D-マラフィドは少数のフィルタ係数を最適化し、異なる顔画像間で伝達可能な頑健な対向摂動を生成する。
FaceForensics++データセットを使用して実施された実験では、2D-Malafideがホワイトボックスとブラックボックスの両方で検出性能を著しく低下させ、大きなフィルタサイズが最大の影響を与えることが示された。
また,GradCAMを用いて2次元マラフィドが画像領域の分類に最も用いた画像領域の変更によって検出システムに悪影響を及ぼすことを示す説明可能性解析を行った。
以上の結果から,現在の深度検出システムによる畳み込み攻撃に対する脆弱性と,画像の忠実度制約の改善による検出堅牢性向上に向けた今後の取り組みの必要性が浮き彫りになった。
関連論文リスト
- 2DSig-Detect: a semi-supervised framework for anomaly detection on image data using 2D-signatures [2.6642754249961103]
本稿では,2DSig-Detectと呼ばれる画像における異常検出のための新しい手法を提案する。
画像中の対向摂動の存在を検出するために,優れた性能と時間の短縮が示される。
論文 参考訳(メタデータ) (2024-09-08T05:35:05Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Robust CLIP-Based Detector for Exposing Diffusion Model-Generated Images [13.089550724738436]
拡散モデル(DM)は画像生成に革命をもたらし、様々な分野にまたがる高品質な画像を生成する。
超現実的画像を作成する能力は、現実的コンテンツと合成的コンテンツを区別する上で大きな課題となる。
この研究は、CLIPモデルによって抽出された画像とテキストの特徴をMLP(Multilayer Perceptron)分類器と統合する堅牢な検出フレームワークを導入する。
論文 参考訳(メタデータ) (2024-04-19T14:30:41Z) - Counterfactual Explanations for Face Forgery Detection via Adversarial Removal of Artifacts [23.279652897139286]
ディープフェイクとして知られる、非常にリアルなAI生成顔偽造は、深刻な社会的懸念を引き起こしている。
本稿では,人工物除去の観点からの顔偽造検出の非現実的説明を行う。
本手法は,90%以上の攻撃成功率と優れた攻撃伝達性を実現する。
論文 参考訳(メタデータ) (2024-04-12T09:13:37Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing [61.82466976737915]
深層学習は、顔の反偽造の最も効果的な方法の1つとして証明されている。
2つの洞察に基づいて,複数フレームからの提示攻撃を検出する新しい手法を提案する。
提案手法は,5つのベンチマークデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2020-03-18T06:11:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。