論文の概要: Veritas: Generalizable Deepfake Detection via Pattern-Aware Reasoning
- arxiv url: http://arxiv.org/abs/2508.21048v1
- Date: Thu, 28 Aug 2025 17:53:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.546547
- Title: Veritas: Generalizable Deepfake Detection via Pattern-Aware Reasoning
- Title(参考訳): Veritas:パターン認識推論による一般化可能なディープフェイク検出
- Authors: Hao Tan, Jun Lan, Zichang Tan, Ajian Liu, Chuanbiao Song, Senyuan Shi, Huijia Zhu, Weiqiang Wang, Jun Wan, Zhen Lei,
- Abstract要約: 階層的な一般化テストで現実の課題をシミュレートするデータセットであるHydraFakeを紹介する。
具体的には、HydraFakeは、厳格なトレーニングと評価のプロトコルとともに、多種多様なディープフェイク技術と、ワイルドなフォージェリーを含んでいる。
We propose Veritas, a multi-modal large language model (MLLM) based Deepfake detector。
- 参考スコア(独自算出の注目度): 45.99344620383706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake detection remains a formidable challenge due to the complex and evolving nature of fake content in real-world scenarios. However, existing academic benchmarks suffer from severe discrepancies from industrial practice, typically featuring homogeneous training sources and low-quality testing images, which hinder the practical deployments of current detectors. To mitigate this gap, we introduce HydraFake, a dataset that simulates real-world challenges with hierarchical generalization testing. Specifically, HydraFake involves diversified deepfake techniques and in-the-wild forgeries, along with rigorous training and evaluation protocol, covering unseen model architectures, emerging forgery techniques and novel data domains. Building on this resource, we propose Veritas, a multi-modal large language model (MLLM) based deepfake detector. Different from vanilla chain-of-thought (CoT), we introduce pattern-aware reasoning that involves critical reasoning patterns such as "planning" and "self-reflection" to emulate human forensic process. We further propose a two-stage training pipeline to seamlessly internalize such deepfake reasoning capacities into current MLLMs. Experiments on HydraFake dataset reveal that although previous detectors show great generalization on cross-model scenarios, they fall short on unseen forgeries and data domains. Our Veritas achieves significant gains across different OOD scenarios, and is capable of delivering transparent and faithful detection outputs.
- Abstract(参考訳): 現実世界のシナリオでは、フェイクコンテンツが複雑で進化しているため、ディープフェイク検出は依然として深刻な課題である。
しかし、既存の学術ベンチマークは、工業的な実践と深刻な違いに悩まされており、通常、均質なトレーニングソースと、現在の検出器の実践的な展開を妨げる低品質なテストイメージが特徴である。
このギャップを軽減するために、階層的な一般化テストで現実の課題をシミュレートするデータセットであるHydraFakeを導入する。
具体的には、HydraFakeは、多種多様なディープフェイクテクニックと、ワイルドなフォージェリー、厳格なトレーニングと評価プロトコル、目に見えないモデルアーキテクチャ、新しいフォージェリーテクニック、新しいデータドメインを含んでいる。
本稿では,マルチモーダル大規模言語モデル(MLLM)に基づくディープフェイク検出手法であるVeritasを提案する。
バニラ・チェーン・オブ・シント(CoT)と異なり、人間の法学過程をエミュレートする「計画」や「自己回帰」といった重要な推論パターンを含むパターン認識推論を導入する。
さらに、このような深層推論能力を現在のMLLMにシームレスに内在させるための2段階のトレーニングパイプラインを提案する。
HydraFakeデータセットの実験によると、以前の検出器はクロスモデルシナリオを非常に一般化したものの、見えない偽造物やデータドメインでは不足している。
当社のVeritasは、さまざまなOODシナリオで大幅な向上を実現し、透過的で忠実な検出出力を提供することができます。
関連論文リスト
- Improving Generalization in Deepfake Detection with Face Foundation Models and Metric Learning [11.097006771680896]
本稿では、強力な一般化を伴う堅牢なビデオディープフェイク検出フレームワークを提案する。
本手法は,実顔データに基づく自己教師型モデルであるFSFM上に構築されている。
トレーニング中に三重項損失の変種を組み込み、実際のサンプルと偽のサンプルの間により分離可能な埋め込みを生成するようモデルに誘導する。
論文 参考訳(メタデータ) (2025-08-27T09:46:45Z) - Adaptive Meta-Learning for Robust Deepfake Detection: A Multi-Agent Framework to Data Drift and Model Generalization [6.589206192038365]
本稿では,タスク固有適応型サンプル合成と整合性正規化を用いた対角的メタ学習アルゴリズムを提案する。
これにより、モデルの堅牢性と一般化の両方が促進される。
実験結果は、モデルが様々なデータセットにわたって一貫した性能を示し、比較したモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-11-12T19:55:07Z) - GM-DF: Generalized Multi-Scenario Deepfake Detection [49.072106087564144]
既存の偽造検出は、通常、単一のドメインでのトレーニングモデルのパラダイムに従う。
本稿では,複数の顔偽造検出データセットを共同で訓練した場合のディープフェイク検出モデルの一般化能力について詳しく検討する。
論文 参考訳(メタデータ) (2024-06-28T17:42:08Z) - DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の研究は、ある特定のデータセットで検出器をトレーニングし、他の一般的なディープフェイクデータセットでテストすることで、トップノーチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40の異なるディープフェイク技術からなるDF40という,高度に多様なディープフェイク検出データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Metamorphic Testing-based Adversarial Attack to Fool Deepfake Detectors [2.0649235321315285]
ディープフェイク検出技術はディープフェイクメディアを見つけるのに役立つ。
現在のディープフェイク検出モデルは、卓越した精度(>90%)を達成することができる
本研究は、メイクアップを、ディープフェイク検出器を騙す可能性のある敵攻撃として特定する。
論文 参考訳(メタデータ) (2022-04-19T02:24:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。