論文の概要: SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes
- arxiv url: http://arxiv.org/abs/2211.11296v1
- Date: Mon, 21 Nov 2022 09:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 21:02:17.806674
- Title: SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes
- Title(参考訳): SeeABLE:Deepfakesのソフトな差異と境界付きコントラスト学習
- Authors: Nicolas Larue, Ngoc-Son Vu, Vitomir Struc, Peter Peer, Vassilis
Christophides
- Abstract要約: 本稿では,検出問題を(一級)アウト・オブ・ディストリビューションタスクとして形式化した新しいディープフェイク検出器であるSeeeABLEを提案する。
SeeABLEは、新しいデータ拡張戦略を使用して、ディープフェイクを見えないように一般化する。
SeeABLEは既存の検出器よりもかなり優れており、DFDCプレビューデータセットでは最大で10%向上している。
- 参考スコア(独自算出の注目度): 6.886039869232879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern deepfake detectors have achieved encouraging results, when training
and test images are drawn from the same collection. However, when applying
these detectors to faces manipulated using an unknown technique, considerable
performance drops are typically observed. In this work, we propose a novel
deepfake detector, called SeeABLE, that formalizes the detection problem as a
(one-class) out-of-distribution detection task and generalizes better to unseen
deepfakes. Specifically, SeeABLE uses a novel data augmentation strategy to
synthesize fine-grained local image anomalies (referred to as
soft-discrepancies) and pushes those pristine disrupted faces towards
predefined prototypes using a novel regression-based bounded contrastive loss.
To strengthen the generalization performance of SeeABLE to unknown deepfake
types, we generate a rich set of soft discrepancies and train the detector: (i)
to localize, which part of the face was modified, and (ii) to identify the
alteration type. Using extensive experiments on widely used datasets, SeeABLE
considerably outperforms existing detectors, with gains of up to +10\% on the
DFDC-preview dataset in term of detection accuracy over SoTA methods while
using a simpler model. Code will be made publicly available.
- Abstract(参考訳): 現代のディープフェイク検出器は、トレーニングとテスト画像が同じコレクションから引き出されるとき、奨励的な結果を得た。
しかし、未知の手法で操作された顔にこれらの検出器を適用すると、通常かなりの性能低下が観測される。
本研究では, (一級) 分散検出タスクとして検出問題を定式化し, 未知のディープフェイクを一般化する, シーアブルと呼ばれる新しいディープフェイク検出器を提案する。
具体的には、新しいデータ拡張戦略を使用して、きめ細かい局所的な画像異常(ソフトディプレパンシーと呼ばれる)を合成し、新しい回帰ベースの有界コントラスト損失を用いて、これらのプリスタン破壊顔を予め定義されたプロトタイプにプッシュする。
未知のディープフェイクタイプへの可視性の一般化性能を高めるために, ソフトな差異を豊富に生成し, 検出器を訓練する。
(i)顔のどの部分が変更されたかを局在化すること、及び
(ii) 変更タイプを特定する。
広く使われているデータセットに関する広範な実験により、SeeABLEは既存の検出器をかなり上回り、より単純なモデルを用いて、SoTAメソッドに対する検出精度の点でDFDCプレビューデータセットで+10\%のゲインを得た。
コードは公開される予定だ。
関連論文リスト
- Masked Conditional Diffusion Model for Enhancing Deepfake Detection [20.018495944984355]
本研究では,深度検出のための仮設条件拡散モデル (MCDM) を提案する。
マスクされたプリスタン顔から様々な偽造顔を生成し、ディープフェイク検出モデルにジェネリックでロバストな表現を学習するよう促す。
論文 参考訳(メタデータ) (2024-02-01T12:06:55Z) - DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - AntifakePrompt: Prompt-Tuned Vision-Language Models are Fake Image
Detectors [27.07771989900852]
深層生成モデルは、偽情報や著作権侵害に対する懸念を高めながら、驚くほど偽のイメージを作成することができる。
実画像と偽画像とを区別するためにディープフェイク検出技術が開発された。
本稿では,視覚言語モデル(VLM)を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T14:23:45Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Attention Consistency Refined Masked Frequency Forgery Representation
for Generalizing Face Forgery Detection [96.539862328788]
既存の偽造検出方法は、未確認領域の真正性を決定する不満足な一般化能力に悩まされている。
ACMF(Attention Consistency Refined masked frequency forgery representation model)を提案する。
いくつかのパブリックフェイスフォージェリーデータセットの実験結果から,提案手法の性能は最先端の手法と比較して優れていることが示された。
論文 参考訳(メタデータ) (2023-07-21T08:58:49Z) - On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models [0.5827521884806072]
我々は,最新の生成手法によって生成されたブラックボックス攻撃に対する単一イメージのディープフェイク検出器の脆弱性について検討した。
われわれの実験はFaceForensics++で行われている。
以上の結果から,ディープフェイクの再建過程において,1段階の偏微分拡散のみを用いることで,検出可能性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-11T15:57:51Z) - Towards A Robust Deepfake Detector:Common Artifact Deepfake Detection
Model [14.308886041268973]
そこで本研究では,コモン・アーティファクト・ディープフェイク検出モデルという新しいディープフェイク検出手法を提案する。
共通アーティファクトの特徴を学習する上での大きな障害は、モデルがアイデンティティ表現機能によって容易に誤解されることである。
本手法は,Implicit Identity Leakageの影響を効果的に低減し,最先端技術よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-10-26T04:02:29Z) - FrePGAN: Robust Deepfake Detection Using Frequency-level Perturbations [12.027711542565315]
我々は、既知のGANモデルと見えないGANモデルの両方に対してディープフェイク検出器を一般化するためのフレームワークを設計する。
本フレームワークは,実画像と区別できないような周波数レベルの摂動マップを生成する。
実験のために、GANモデル、色操作、オブジェクトカテゴリのトレーニング設定から異なる新しいテストシナリオを設計する。
論文 参考訳(メタデータ) (2022-02-07T16:45:11Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。