論文の概要: Fake It till You Make It: Curricular Dynamic Forgery Augmentations towards General Deepfake Detection
- arxiv url: http://arxiv.org/abs/2409.14444v1
- Date: Sun, 22 Sep 2024 13:51:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 22:41:53.222664
- Title: Fake It till You Make It: Curricular Dynamic Forgery Augmentations towards General Deepfake Detection
- Title(参考訳): Fake it until you make it: Curricular Dynamic Forgery Augmentations to General Deepfake Detection (特集:バイオサイバネティックスとバイオサイバネティックス)
- Authors: Yuzhen Lin, Wentang Song, Bin Li, Yuezun Li, Jiangqun Ni, Han Chen, Qiushi Li,
- Abstract要約: 我々は,textbfCurricular textbfDynamic textbfForgery textbfAugmentation (CDFA)と呼ばれる新しいディープフェイク検出法を提案する。
CDFAは、偽造拡張ポリシーネットワークでディープフェイク検出器を共同で訓練する。
そこで本研究では,CDFAが各種難燃性ディープフェイク検出器のクロスデータセットおよびクロスマニピュレーション性能を著しく向上できることを示す。
- 参考スコア(独自算出の注目度): 15.857961926916465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous studies in deepfake detection have shown promising results when testing face forgeries from the same dataset as the training. However, the problem remains challenging when one tries to generalize the detector to forgeries from unseen datasets and created by unseen methods. In this work, we present a novel general deepfake detection method, called \textbf{C}urricular \textbf{D}ynamic \textbf{F}orgery \textbf{A}ugmentation (CDFA), which jointly trains a deepfake detector with a forgery augmentation policy network. Unlike the previous works, we propose to progressively apply forgery augmentations following a monotonic curriculum during the training. We further propose a dynamic forgery searching strategy to select one suitable forgery augmentation operation for each image varying between training stages, producing a forgery augmentation policy optimized for better generalization. In addition, we propose a novel forgery augmentation named self-shifted blending image to simply imitate the temporal inconsistency of deepfake generation. Comprehensive experiments show that CDFA can significantly improve both cross-datasets and cross-manipulations performances of various naive deepfake detectors in a plug-and-play way, and make them attain superior performances over the existing methods in several benchmark datasets.
- Abstract(参考訳): ディープフェイク検出に関するこれまでの研究は、トレーニングと同じデータセットから顔の偽造品をテストする際に有望な結果を示している。
しかし、検出器を未知のデータセットから偽造に一般化し、未知の手法で生成しようとすると、問題は依然として困難である。
本研究では,新しいディープフェイク検出手法である \textbf{C}urricular \textbf{D}ynamic \textbf{F}orgery \textbf{A}ugmentation (CDFA) を提案する。
従来と異なり,トレーニング中の単調なカリキュラムに従って,偽造の増補を段階的に適用することを提案する。
さらに,訓練段階ごとに異なる画像に対して,適切なフォージェリ拡張操作を選択するための動的フォージェリ探索戦略を提案し,より一般化に最適化されたフォージェリ拡張ポリシーを作成する。
さらに, 深部フェイク生成の時間的不整合を簡易に再現するために, 自己シフトブレンディング画像という新しいフォージェリ拡張を提案する。
包括的実験により,CDFAは様々な深度検出器のクロスデータセットとクロスマニピュレーションの両方の性能をプラグ・アンド・プレイ方式で大幅に改善し,既存の手法よりも優れた性能を達成できることが示されている。
関連論文リスト
- Towards General Deepfake Detection with Dynamic Curriculum [4.622705420257596]
本稿では,カリキュラム学習パラダイムを用いたディープフェイク検出器のトレーニングにサンプル硬さを導入することを提案する。
我々は,このモデルがトレーニング中に徐々にハードサンプルに焦点をあてる,新しい単純かつ効果的な戦略である動的顔面法学カリキュラム(DFFC)を提示する。
総合的な実験により,DFFCは各種のエンド・ツー・エンドディープフェイク検出器の内・クロス・データセット性能を向上できることが示された。
論文 参考訳(メタデータ) (2024-10-15T00:58:09Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Attention Consistency Refined Masked Frequency Forgery Representation
for Generalizing Face Forgery Detection [96.539862328788]
既存の偽造検出方法は、未確認領域の真正性を決定する不満足な一般化能力に悩まされている。
ACMF(Attention Consistency Refined masked frequency forgery representation model)を提案する。
いくつかのパブリックフェイスフォージェリーデータセットの実験結果から,提案手法の性能は最先端の手法と比較して優れていることが示された。
論文 参考訳(メタデータ) (2023-07-21T08:58:49Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - On Improving Cross-dataset Generalization of Deepfake Detectors [1.0152838128195467]
ディープフェイクによる顔の操作は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は、教師付きおよび強化学習(RL)のハイブリッド組み合わせとして深層偽検出を定式化し、そのクロスデータセット一般化性能を改善する。
提案手法は,ディープフェイク検出器のクロスデータセット一般化における既存の研究よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-08T20:34:53Z) - Self-supervised Learning of Adversarial Example: Towards Good
Generalizations for Deepfake Detection [41.27496491339225]
この研究は、単純な原理から一般化可能なディープフェイク検出に対処する。
フォージェリー構成のプールで強化されたフォージェリーを合成することにより、フォージェリーの「多様性」を豊かにすることを提案する。
また,現在のモデルに最も難易度の高いフォージェリーを動的に合成するために,敵のトレーニング戦略を用いることを提案する。
論文 参考訳(メタデータ) (2022-03-23T05:52:23Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。