論文の概要: Performance Decay in Deepfake Detection: The Limitations of Training on Outdated Data
- arxiv url: http://arxiv.org/abs/2511.07009v1
- Date: Mon, 10 Nov 2025 11:58:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.227396
- Title: Performance Decay in Deepfake Detection: The Limitations of Training on Outdated Data
- Title(参考訳): ディープフェイク検出の性能低下:古いデータによるトレーニングの限界
- Authors: Jack Richings, Margaux Leblanc, Ian Groves, Victoria Nockles,
- Abstract要約: 本稿では,現代ディープフェイクにおけるAUROCの99.8%を超える簡易かつ効果的な2段階検出手法を提案する。
このデータに基づいてトレーニングされたモデルは、わずか6ヶ月後に生成された生成技術を用いて作成したディープフェイクに対して、30%以上のリコール損失を被っていることを示す。
効果的なディープフェイク検出の未来は、高速データ収集と高度なフレームレベルの特徴検出器の開発に依存している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The continually advancing quality of deepfake technology exacerbates the threats of disinformation, fraud, and harassment by making maliciously-generated synthetic content increasingly difficult to distinguish from reality. We introduce a simple yet effective two-stage detection method that achieves an AUROC of over 99.8% on contemporary deepfakes. However, this high performance is short-lived. We show that models trained on this data suffer a recall drop of over 30% when evaluated on deepfakes created with generation techniques from just six months later, demonstrating significant decay as threats evolve. Our analysis reveals two key insights for robust detection. Firstly, continued performance requires the ongoing curation of large, diverse datasets. Second, predictive power comes primarily from static, frame-level artifacts, not temporal inconsistencies. The future of effective deepfake detection therefore depends on rapid data collection and the development of advanced frame-level feature detectors.
- Abstract(参考訳): ディープフェイク技術の継続的な品質向上は、悪意のある合成コンテンツを現実と区別しにくくすることで、偽情報、詐欺、ハラスメントの脅威を悪化させる。
本稿では,現代ディープフェイクにおけるAUROCの99.8%を超える簡易かつ効果的な2段階検出手法を提案する。
しかし、このハイパフォーマンスは短命である。
このデータに基づいてトレーニングされたモデルは、わずか6ヶ月後に生成技術によって生成されたディープフェイクで評価された場合、30%以上のリコール損失を被り、脅威が進化するにつれて著しく崩壊することを示した。
分析の結果,ロバスト検出には2つの重要な知見が得られた。
まず、継続的なパフォーマンスには、大規模で多様なデータセットの継続的なキュレーションが必要である。
第二に、予測力は主に静的なフレームレベルのアーティファクトから生まれ、時間的矛盾ではない。
したがって、効果的なディープフェイク検出の未来は、高速なデータ収集と高度なフレームレベルの特徴検出器の開発に依存する。
関連論文リスト
- Enhancing Abnormality Identification: Robust Out-of-Distribution Strategies for Deepfake Detection [2.4851820343103035]
本稿では,2つの新しいOf-Distribution(OOD)検出手法を提案する。
第1のアプローチは入力画像の再構築のために訓練され、第2のアプローチはOODを検出するための注意機構が組み込まれている。
提案手法は,ベンチマーク上での最高性能構成のうち,深度検出とランク付けにおいて有望な結果が得られる。
論文 参考訳(メタデータ) (2025-06-03T13:24:33Z) - PUDD: Towards Robust Multi-modal Prototype-based Deepfake Detection [3.824522034247845]
深度検出のためのプロトタイプベース統一フレームワーク(PUDD)を提案する。
PUDDは類似性に基づく検出システムを提供し、入力データをビデオ分類のための既知のプロトタイプと比較し、類似性のあるドロップを分析して、潜在的なディープフェイクや以前は見つからなかったクラスを特定する。
実験の結果, (1) PUDDはCeleb-DFの95.1%の精度, (2) PUDDはトレーニング中の上流タスクとして画像分類を活用し, 推論中の画像分類と深度検出タスクの両方において有望な性能を示した。
論文 参考訳(メタデータ) (2024-06-22T19:21:42Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。