論文の概要: Scaling Laws for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2510.16320v1
- Date: Sat, 18 Oct 2025 03:08:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.944211
- Title: Scaling Laws for Deepfake Detection
- Title(参考訳): ディープフェイク検出のためのスケーリング法則
- Authors: Wenhao Wang, Longqi Cai, Taihong Xiao, Yuxiao Wang, Ming-Hsuan Yang,
- Abstract要約: 大規模言語モデル(LLM)で示されるのと同様のパワー・ロー・スケーリングを観察する。
スケーリング中のディープフェイク検出における事前学習とデータ拡張の役割と,スケーリング自体の制限について検討する。
- 参考スコア(独自算出の注目度): 38.65933617152009
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a systematic study of scaling laws for the deepfake detection task. Specifically, we analyze the model performance against the number of real image domains, deepfake generation methods, and training images. Since no existing dataset meets the scale requirements for this research, we construct ScaleDF, the largest dataset to date in this field, which contains over 5.8 million real images from 51 different datasets (domains) and more than 8.8 million fake images generated by 102 deepfake methods. Using ScaleDF, we observe power-law scaling similar to that shown in large language models (LLMs). Specifically, the average detection error follows a predictable power-law decay as either the number of real domains or the number of deepfake methods increases. This key observation not only allows us to forecast the number of additional real domains or deepfake methods required to reach a target performance, but also inspires us to counter the evolving deepfake technology in a data-centric manner. Beyond this, we examine the role of pre-training and data augmentations in deepfake detection under scaling, as well as the limitations of scaling itself.
- Abstract(参考訳): 本稿では,ディープフェイク検出タスクにおけるスケーリング法則の体系的研究について述べる。
具体的には、実画像領域数、ディープフェイク生成方法、トレーニング画像のモデル性能について分析する。
この研究のスケール要件を満たす既存のデータセットは存在しないため、51の異なるデータセット(ドメイン)から580万以上の実画像と、102のディープフェイクメソッドによって生成された880万以上の偽画像を含む、この分野最大のデータセットであるScaleDFを構築します。
ScaleDFを用いて,大規模言語モデル(LLM)で示されるような,ゆるやかなスケーリングを観察する。
具体的には、平均検出誤差は、実際のドメインの数やディープフェイクメソッドの数が増えるにつれて予測可能なパワーロー崩壊に続く。
この重要な観察によって、ターゲットのパフォーマンスに到達するのに必要な実際のドメイン数やディープフェイクメソッドを予測できるだけでなく、データ中心の方法で進化するディープフェイク技術に対処するインスピレーションを与えてくれます。
さらに、スケーリング中のディープフェイク検出における事前トレーニングとデータ拡張の役割や、スケーリング自体の制限についても検討する。
関連論文リスト
- Combating Digitally Altered Images: Deepfake Detection [0.0]
本研究では,改良型視覚変換器(ViT)モデルに基づく頑健なディープフェイク検出手法を提案する。
このモデルはOpenForensicsデータセットのサブセットで、さまざまなイメージ操作の堅牢性を高めるために、複数の拡張テクニックでトレーニングされている。
このモデルは、テストデータセット上で最先端の結果を示し、Deepfakeイメージを慎重に検出する。
論文 参考訳(メタデータ) (2025-08-23T09:59:03Z) - Evaluating Deepfake Detectors in the Wild [0.0]
本研究では,最新のディープフェイク検知装置の評価を行い,実世界のシナリオを模倣してディープフェイク検出を行う新しいテスト手法を提案する。
我々の分析によると、ディープフェイクの検出は依然として難しい課題である。
JPEG圧縮や画像強調などの基本的な画像操作は、モデルの性能を著しく低下させる。
論文 参考訳(メタデータ) (2025-07-29T15:17:00Z) - Real-Time Deepfake Detection in the Real-World [39.96935319559675]
本稿では,LaDeDa(Lacally Aware Deepfake Detection)アルゴリズムを提案する。
LaDeDaは1つの9x9イメージパッチを受け取り、ディープフェイクスコアを出力する。
いくつかの人気ソーシャルネットワークから収集された新しいディープフェイク検出データセットであるWildRFを紹介する。
論文 参考訳(メタデータ) (2024-06-13T17:59:23Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。