論文の概要: Detecting Deepfakes with Self-Blended Images
- arxiv url: http://arxiv.org/abs/2204.08376v1
- Date: Mon, 18 Apr 2022 15:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 16:00:26.176925
- Title: Detecting Deepfakes with Self-Blended Images
- Title(参考訳): 自己標識画像によるディープフェイクの検出
- Authors: Kaede Shiohara and Toshihiko Yamasaki
- Abstract要約: 本稿では,深度情報を検出するために,SBI(Self-blended Image)と呼ばれる新しい合成トレーニングデータを提案する。
SBIは、単一のプリスタン画像から擬似ソースとターゲットイメージを混合して生成される。
我々は,FF++,CDF,DFD,DFDC,DFDCP,FFIWデータセットの最先端手法との比較を行った。
- 参考スコア(独自算出の注目度): 37.374772758057844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present novel synthetic training data called self-blended
images (SBIs) to detect deepfakes. SBIs are generated by blending pseudo source
and target images from single pristine images, reproducing common forgery
artifacts (e.g., blending boundaries and statistical inconsistencies between
source and target images). The key idea behind SBIs is that more general and
hardly recognizable fake samples encourage classifiers to learn generic and
robust representations without overfitting to manipulation-specific artifacts.
We compare our approach with state-of-the-art methods on FF++, CDF, DFD, DFDC,
DFDCP, and FFIW datasets by following the standard cross-dataset and
cross-manipulation protocols. Extensive experiments show that our method
improves the model generalization to unknown manipulations and scenes. In
particular, on DFDC and DFDCP where existing methods suffer from the domain gap
between the training and test sets, our approach outperforms the baseline by
4.90% and 11.78% points in the cross-dataset evaluation, respectively.
- Abstract(参考訳): 本稿では,Deepfakesを検出するために,SBI(Self-blended Image)と呼ばれる新しい合成トレーニングデータを提案する。
SBIは、単一のプリスタンイメージから擬似ソースとターゲットイメージをブレンドし、共通の偽造品(例えば、ソースとターゲットイメージのブレンド境界と統計的不整合)を再現することによって生成される。
sbisの背後にある重要な考え方は、より一般的で認識できない偽のサンプルは、分類器が操作固有のアーティファクトに過剰に適合することなく、汎用的で堅牢な表現を学ぶことを奨励する。
提案手法は,FF++,CDF,DFD,DFDC,DFDCP,FFIWのデータセットに対して,標準のクロスデータセットおよびクロス操作プロトコルに従うことによって,最先端の手法と比較する。
広範な実験により,本手法は未知の操作やシーンに対するモデル一般化を改善していることが示された。
特に,既存の手法がトレーニングセットとテストセットのドメインギャップに苦しむdfdcとdfdcpでは,クロスデータセット評価において,ベースラインを4.90%,11.78%上回っている。
関連論文リスト
- Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - FSBI: Deepfakes Detection with Frequency Enhanced Self-Blended Images [17.707379977847026]
本稿では、ディープフェイク検出のための周波数強調自己ブレンド画像手法を提案する。
提案手法はFF++とCeleb-DFデータセットで評価されている。
論文 参考訳(メタデータ) (2024-06-12T20:15:00Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Identifying Invariant Texture Violation for Robust Deepfake Detection [17.306386179823576]
Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
論文 参考訳(メタデータ) (2020-12-19T03:02:15Z) - Learning to Recognize Patch-Wise Consistency for Deepfake Detection [39.186451993950044]
パッチワイド一貫性学習(PCL)という,このタスクのための表現学習手法を提案する。
PCLは、画像のソース機能の一貫性を測定し、複数の偽造方法に対する優れた解釈性と堅牢性で表現することを学びます。
7つの一般的なDeepfake検出データセットに対するアプローチを評価します。
論文 参考訳(メタデータ) (2020-12-16T23:06:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。