論文の概要: On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models
- arxiv url: http://arxiv.org/abs/2307.05397v1
- Date: Tue, 11 Jul 2023 15:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 14:17:14.322668
- Title: On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models
- Title(参考訳): 拡散モデルによるディープフェイク検知器の攻撃に対する脆弱性について
- Authors: Marija Ivanovska, Vitomir \v{S}truc
- Abstract要約: 本稿では, 単一像のディープフェイク検出器が生成法により生成した攻撃に対する脆弱性を調査する予備的研究を行う。
私たちの実験は、一般的に使用されているベンチマークデータセットであるFaceForensics++上で実行されています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The detection of malicious Deepfakes is a constantly evolving problem, that
requires continuous monitoring of detectors, to ensure they are able to detect
image manipulations generated by the latest emerging models. In this paper, we
present a preliminary study that investigates the vulnerability of single-image
Deepfake detectors to attacks created by a representative of the newest
generation of generative methods, i.e. Denoising Diffusion Models (DDMs). Our
experiments are run on FaceForensics++, a commonly used benchmark dataset,
consisting of Deepfakes generated with various techniques for face swapping and
face reenactment. The analysis shows, that reconstructing existing Deepfakes
with only one denoising diffusion step significantly decreases the accuracy of
all tested detectors, without introducing visually perceptible image changes.
- Abstract(参考訳): 悪意のあるDeepfakesの検出は、最新のモデルによって生成された画像操作を確実に検出するために、検出器の継続的な監視を必要とする、常に進化する問題である。
本稿では,DDM(Denoising Diffusion Models)の最新の生成手法の代表者による攻撃に対して,単一像のDeepfake検出器の脆弱性を調査する予備的研究を行う。
私たちの実験は、一般的に使用されているベンチマークデータセットであるfaceforensics++上で行われます。
解析の結果,既存のディープフェイクの再現は,視覚的に知覚可能な画像変化を伴わずに,すべての検出器の精度を著しく低下させることがわかった。
関連論文リスト
- DiffusionFake: Enhancing Generalization in Deepfake Detection via Guided Stable Diffusion [94.46904504076124]
ディープフェイク技術は、顔交換を極めて現実的にし、偽造された顔コンテンツの使用に対する懸念を高めている。
既存の方法は、顔操作の多様な性質のため、目に見えない領域に一般化するのに苦労することが多い。
顔偽造者の生成過程を逆転させて検出モデルの一般化を促進する新しいフレームワークであるDiffusionFakeを紹介する。
論文 参考訳(メタデータ) (2024-10-06T06:22:43Z) - Exploring Strengths and Weaknesses of Super-Resolution Attack in Deepfake Detection [9.372782789857803]
我々は、異なる超解像技術に基づく超解像攻撃の可能性を探る。
超分解能プロセスはディープフェイク生成モデルによって導入されたアーティファクトを隠蔽するのに有効であるが、完全に合成された画像に含まれる痕跡を隠蔽するのに失敗することを示す。
本研究では,このような攻撃に対するロバスト性を向上させるため,検出器のトレーニングプロセスにいくつかの変更を加えることを提案する。
論文 参考訳(メタデータ) (2024-10-05T15:47:34Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Masked Conditional Diffusion Model for Enhancing Deepfake Detection [20.018495944984355]
本研究では,深度検出のための仮設条件拡散モデル (MCDM) を提案する。
マスクされたプリスタン顔から様々な偽造顔を生成し、ディープフェイク検出モデルにジェネリックでロバストな表現を学習するよう促す。
論文 参考訳(メタデータ) (2024-02-01T12:06:55Z) - Generalized Deepfakes Detection with Reconstructed-Blended Images and
Multi-scale Feature Reconstruction Network [14.749857283918157]
未確認データセットに対する堅牢な適用性を有するブレンドベース検出手法を提案する。
実験により、この手法により、未知のデータ上でのクロスマニピュレーション検出とクロスデータセット検出の両方のパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2023-12-13T09:49:15Z) - MMNet: Multi-Collaboration and Multi-Supervision Network for Sequential
Deepfake Detection [81.59191603867586]
シークエンシャルディープフェイク検出は、回復のための正しいシーケンスで偽の顔領域を特定することを目的としている。
偽画像の復元には、逆変換を実装するための操作モデルの知識が必要である。
顔画像の空間スケールや逐次順列化を扱うマルチコラボレーション・マルチスーパービジョンネットワーク(MMNet)を提案する。
論文 参考訳(メタデータ) (2023-07-06T02:32:08Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Deepfake Detection for Facial Images with Facemasks [17.238556058316412]
フェイスマスクを用いたディープフェイクにおける最先端のディープフェイク検出モデルの性能を徹底的に評価した。
テマズクディープフェイク検出:顔パタンカードフェイスクロップの2つの手法を提案する。
論文 参考訳(メタデータ) (2022-02-23T09:01:27Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。