論文の概要: FakeChain: Exposing Shallow Cues in Multi-Step Deepfake Detection
- arxiv url: http://arxiv.org/abs/2509.16602v1
- Date: Sat, 20 Sep 2025 09:53:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.882275
- Title: FakeChain: Exposing Shallow Cues in Multi-Step Deepfake Detection
- Title(参考訳): FakeChain:マルチステップディープフェイク検出における浅口キュウリの抽出
- Authors: Minji Heo, Simon S. Woo,
- Abstract要約: マルチステップまたはハイブリッドのディープフェイクは、シングルステップのフォージェリーでトレーニングされたモデルを検出するために、予期せぬ技術的課題を生じさせる可能性がある。
textbfFakeChainは,5つの最先端の代表ジェネレータを用いて合成した1-,2-,3-Stepフォージェリーからなる大規模ベンチマークである。
- 参考スコア(独自算出の注目度): 28.153605685413893
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-step or hybrid deepfakes, created by sequentially applying different deepfake creation methods such as Face-Swapping, GAN-based generation, and Diffusion methods, can pose an emerging and unforseen technical challenge for detection models trained on single-step forgeries. While prior studies have mainly focused on detecting isolated single manipulation, little is known about the detection model behavior under such compositional, hybrid, and complex manipulation pipelines. In this work, we introduce \textbf{FakeChain}, a large-scale benchmark comprising 1-, 2-, and 3-Step forgeries synthesized using five state-of-the-art representative generators. Using this approach, we analyze detection performance and spectral properties across hybrid manipulation at different step, along with varying generator combinations and quality settings. Surprisingly, our findings reveal that detection performance highly depends on the final manipulation type, with F1-score dropping by up to \textbf{58.83\%} when it differs from training distribution. This clearly demonstrates that detectors rely on last-stage artifacts rather than cumulative manipulation traces, limiting generalization. Such findings highlight the need for detection models to explicitly consider manipulation history and sequences. Our results highlight the importance of benchmarks such as FakeChain, reflecting growing synthesis complexity and diversity in real-world scenarios. Our sample code is available here\footnote{https://github.com/minjihh/FakeChain}.
- Abstract(参考訳): マルチステップまたはハイブリッドなディープフェイクは、Face-Swapping、GANベースの生成、Diffusionメソッドといった異なるディープフェイク作成手法を順次適用することで作成され、単一ステップのフォージェリでトレーニングされた検出モデルに対して、新たな技術的課題を生じさせる可能性がある。
先行研究は主に孤立した単一操作を検出することに焦点を当てているが、そのような構成的、ハイブリッド的、複雑な操作パイプラインにおける検出モデル挙動についてはほとんど知られていない。
本研究では,5つの最先端の代表ジェネレータを用いて合成した1-,2-,3-Stepフォージェネリからなる大規模ベンチマークである \textbf{FakeChain} を紹介する。
提案手法を用いて, ハイブリッド操作における検出性能とスペクトル特性を異なるステップで解析し, 各種ジェネレータの組み合わせと品質設定について検討する。
意外なことに,本研究では,F1スコアがトレーニング分布と異なる場合,F1スコアが最大で1bf{58.83\%まで低下する,検出性能が最終操作タイプに大きく依存していることが判明した。
これは、検出器が累積的な操作トレースではなく最終段階のアーティファクトに依存し、一般化を制限することを明らかに示している。
このような発見は、操作履歴とシーケンスを明示的に考慮する検出モデルの必要性を強調している。
この結果は、FakeChainのようなベンチマークの重要性を強調し、実世界のシナリオにおける合成の複雑さと多様性の増大を反映している。
サンプルコードはここにあります。
関連論文リスト
- DiffFake: Exposing Deepfakes using Differential Anomaly Detection [16.528373143163275]
本稿では,検出問題を異常検出タスクとしてアプローチする新しいディープフェイク検出器DiffFakeを提案する。
具体的には、DiffFakeは、差分異常検出フレームワークを利用することで、同一人物の2つの顔画像間の自然な変化を学習する。
提案手法は,最先端の競争相手の性能に適合し,時として超えうることを示す。
論文 参考訳(メタデータ) (2025-02-22T14:50:53Z) - Fake It till You Make It: Curricular Dynamic Forgery Augmentations towards General Deepfake Detection [15.857961926916465]
我々は,textbfCurricular textbfDynamic textbfForgery textbfAugmentation (CDFA)と呼ばれる新しいディープフェイク検出法を提案する。
CDFAは、偽造拡張ポリシーネットワークでディープフェイク検出器を共同で訓練する。
そこで本研究では,CDFAが各種難燃性ディープフェイク検出器のクロスデータセットおよびクロスマニピュレーション性能を著しく向上できることを示す。
論文 参考訳(メタデータ) (2024-09-22T13:51:22Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [81.93945602120453]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Generalizing Face Forgery Detection with High-frequency Features [63.33397573649408]
現在のCNNベースの検出器は、メソッド固有の色テクスチャに過度に適合するため、一般化に失敗する傾向にある。
フェースフォージェリ検出に高周波雑音を用いることを提案する。
1つは、複数のスケールで高周波ノイズを抽出するマルチスケールの高周波特徴抽出モジュールである。
2つ目は、低レベルRGB特徴抽出器を導く残差誘導空間注意モジュールで、新しい視点からフォージェリートレースにもっと集中する。
論文 参考訳(メタデータ) (2021-03-23T08:19:21Z) - DeepFake Detection by Analyzing Convolutional Traces [0.0]
我々は,人間の顔のディープフェイクの分析に着目し,新しい検出方法を提案する。
提案手法は, 予測最大化(EM)アルゴリズムを用いて, 基礎となる畳み込み生成過程をモデル化するための局所的特徴の集合を抽出する。
その結果、異なるアーキテクチャと対応する生成過程を区別する手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-22T09:02:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。