論文の概要: On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models
- arxiv url: http://arxiv.org/abs/2307.05397v2
- Date: Sun, 29 Oct 2023 22:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 20:50:46.850734
- Title: On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models
- Title(参考訳): 拡散モデルによるディープフェイク検知器の攻撃に対する脆弱性について
- Authors: Marija Ivanovska, Vitomir \v{S}truc
- Abstract要約: 我々は,最新の生成手法によって生成されたブラックボックス攻撃に対する単一イメージのディープフェイク検出器の脆弱性について検討した。
われわれの実験はFaceForensics++で行われている。
以上の結果から,ディープフェイクの再建過程において,1段階の偏微分拡散のみを用いることで,検出可能性を大幅に低下させる可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.5827521884806072
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The detection of malicious deepfakes is a constantly evolving problem that
requires continuous monitoring of detectors to ensure they can detect image
manipulations generated by the latest emerging models. In this paper, we
investigate the vulnerability of single-image deepfake detectors to black-box
attacks created by the newest generation of generative methods, namely
Denoising Diffusion Models (DDMs). Our experiments are run on FaceForensics++,
a widely used deepfake benchmark consisting of manipulated images generated
with various techniques for face identity swapping and face reenactment.
Attacks are crafted through guided reconstruction of existing deepfakes with a
proposed DDM approach for face restoration. Our findings indicate that
employing just a single denoising diffusion step in the reconstruction process
of a deepfake can significantly reduce the likelihood of detection, all without
introducing any perceptible image modifications. While training detectors using
attack examples demonstrated some effectiveness, it was observed that
discriminators trained on fully diffusion-based deepfakes exhibited limited
generalizability when presented with our attacks.
- Abstract(参考訳): 悪意のあるディープフェイクの検出は、最新のモデルによって生成された画像操作を確実に検出するために、検出器の継続的な監視を必要とする、常に進化している問題である。
本稿では,最新の生成法であるDDM(Denoising Diffusion Models)によって生成されたブラックボックス攻撃に対する単一イメージのディープフェイク検出器の脆弱性について検討する。
私たちの実験はFaceForensics++で行われており、顔認証や顔の再現のための様々な技術で生成される操作された画像からなる、広く使われているディープフェイクベンチマークである。
攻撃は、顔の復元のためのDDMアプローチによって、既存のディープフェイクのガイド付き再構築を通じて行われる。
以上の結果から,ディープフェイクの再構成過程において,単一の消音拡散ステップのみを用いることで,知覚可能な画像修正を伴わずに検出可能性を大幅に低減できることが示唆された。
攻撃例を用いた訓練用検出器は有効性を示したが, 完全拡散型ディープフェイクで訓練した識別器は, 攻撃時に限定的な一般化性を示した。
関連論文リスト
- FaceShield: Defending Facial Image against Deepfake Threats [11.78218702283404]
犯罪活動におけるディープフェイクの使用の増加は重大な問題を示し、広範な論争を引き起こしている。
拡散モデル(DM)が生み出すディープフェイクを標的とした新たな攻撃戦略を提案する。
提案手法は3つの主要要素からなる: (i) DMの注意機構を操作し, 認知過程において保護された顔の特徴を排除し, (ii) 敵の摂動の堅牢性を高めるために顕著な顔特徴抽出モデルをターゲットにし, (iii) ガウス的ぼかしとローパスフィルタリング技術を用いてJPEG歪みに対する頑健性を高めつつ, 知覚能力を向上させる。
論文 参考訳(メタデータ) (2024-12-13T07:20:35Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - DiffusionFake: Enhancing Generalization in Deepfake Detection via Guided Stable Diffusion [94.46904504076124]
ディープフェイク技術は、顔交換を極めて現実的にし、偽造された顔コンテンツの使用に対する懸念を高めている。
既存の方法は、顔操作の多様な性質のため、目に見えない領域に一般化するのに苦労することが多い。
顔偽造者の生成過程を逆転させて検出モデルの一般化を促進する新しいフレームワークであるDiffusionFakeを紹介する。
論文 参考訳(メタデータ) (2024-10-06T06:22:43Z) - Exploring Strengths and Weaknesses of Super-Resolution Attack in Deepfake Detection [9.372782789857803]
我々は、異なる超解像技術に基づく超解像攻撃の可能性を探る。
超分解能プロセスはディープフェイク生成モデルによって導入されたアーティファクトを隠蔽するのに有効であるが、完全に合成された画像に含まれる痕跡を隠蔽するのに失敗することを示す。
本研究では,このような攻撃に対するロバスト性を向上させるため,検出器のトレーニングプロセスにいくつかの変更を加えることを提案する。
論文 参考訳(メタデータ) (2024-10-05T15:47:34Z) - Masked Conditional Diffusion Model for Enhancing Deepfake Detection [20.018495944984355]
本研究では,深度検出のための仮設条件拡散モデル (MCDM) を提案する。
マスクされたプリスタン顔から様々な偽造顔を生成し、ディープフェイク検出モデルにジェネリックでロバストな表現を学習するよう促す。
論文 参考訳(メタデータ) (2024-02-01T12:06:55Z) - MMNet: Multi-Collaboration and Multi-Supervision Network for Sequential
Deepfake Detection [81.59191603867586]
シークエンシャルディープフェイク検出は、回復のための正しいシーケンスで偽の顔領域を特定することを目的としている。
偽画像の復元には、逆変換を実装するための操作モデルの知識が必要である。
顔画像の空間スケールや逐次順列化を扱うマルチコラボレーション・マルチスーパービジョンネットワーク(MMNet)を提案する。
論文 参考訳(メタデータ) (2023-07-06T02:32:08Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Deepfake Detection for Facial Images with Facemasks [17.238556058316412]
フェイスマスクを用いたディープフェイクにおける最先端のディープフェイク検出モデルの性能を徹底的に評価した。
テマズクディープフェイク検出:顔パタンカードフェイスクロップの2つの手法を提案する。
論文 参考訳(メタデータ) (2022-02-23T09:01:27Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。