論文の概要: ForensicFlow: A Tri-Modal Adaptive Network for Robust Deepfake Detection
- arxiv url: http://arxiv.org/abs/2511.14554v1
- Date: Tue, 18 Nov 2025 14:56:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.167561
- Title: ForensicFlow: A Tri-Modal Adaptive Network for Robust Deepfake Detection
- Title(参考訳): ForensicFlow:ロバストディープフェイク検出のための3モード適応ネットワーク
- Authors: Mohammad Romani,
- Abstract要約: 本稿では,ビデオディープフェイク検出のためのRGB,テクスチャ,周波数エビデンスを融合した3モーダル法医学フレームワークForensicFlowを紹介する。
Focal LossでCeleb-DF (v2)でトレーニングされたForensicFlowは、AUC 0.9752、F1-Score 0.9408、精度 0.9208を達成し、シングルストリームベースラインを上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfakes generated by advanced GANs and autoencoders severely threaten information integrity and societal stability. Single-stream CNNs fail to capture multi-scale forgery artifacts across spatial, texture, and frequency domains, limiting robustness and generalization. We introduce the ForensicFlow, a tri-modal forensic framework that synergistically fuses RGB, texture, and frequency evidence for video Deepfake detection. The RGB branch (ConvNeXt-tiny) extracts global visual inconsistencies; the texture branch (Swin Transformer-tiny) detects fine-grained blending artifacts; the frequency branch (CNN + SE) identifies periodic spectral noise. Attention-based temporal pooling dynamically prioritizes high-evidence frames, while adaptive attention fusion balances branch contributions.Trained on Celeb-DF (v2) with Focal Loss, ForensicFlow achieves AUC 0.9752, F1-Score 0.9408, and accuracy 0.9208, outperforming single-stream baselines. Ablation validates branch synergy; Grad-CAM confirms forensic focus. This comprehensive feature fusion provides superior resilience against subtle forgeries.
- Abstract(参考訳): 先進的なGANやオートエンコーダによって生成されたディープフェイクは、情報の完全性と社会的安定性を著しく脅かす。
単一ストリームCNNは、空間、テクスチャ、周波数領域にわたるマルチスケールの偽造品をキャプチャできず、堅牢性と一般化を制限している。
本稿では,ビデオディープフェイク検出のためのRGB,テクスチャ,周波数エビデンスを相乗的に融合する3モーダル法医学フレームワークであるForensicFlowを紹介する。
RGBブランチ(ConvNeXt-tiny)は、グローバルな視覚的不整合を抽出し、テクスチャブランチ(Swin Transformer-tiny)は、微細なブレンディングアーティファクトを検出し、周波数ブランチ(CNN + SE)は、周期的なスペクトルノイズを識別する。
AUC 0.9752, F1-Score 0.9408, 精度 0.9208, 単一ストリームベースラインよりも優れた精度を実現した。
アブレーションは分岐シナジーを検証し、Grad-CAMは法医学的な焦点を確認する。
この包括的な機能融合は、微妙な偽造に対して優れたレジリエンスを提供する。
関連論文リスト
- Multi-modal Deepfake Detection and Localization with FPN-Transformer [21.022230340898556]
FPN変換器(Feature Pyramid-Transformer)に基づくマルチモーダルディープフェイク検出およびローカライゼーションフレームワークを提案する。
マルチスケールな特徴ピラミッドは、R-TLMブロックと局所的な注意機構によって構築され、コンテキスト間の時間的依存関係の結合解析を可能にする。
我々は,IJCAI'25 DDL-AVベンチマークの試験セットに対するアプローチを評価し,最終スコア0.7535で良好な性能を示した。
論文 参考訳(メタデータ) (2025-11-11T09:33:39Z) - A Hybrid Deep Learning and Forensic Approach for Robust Deepfake Detection [0.0]
既存のディープフェイク検出手法は、一般化や歪みに対する脆弱性の低いディープラーニングや、解釈可能なが新しい操作技術に制限される法医学的な分析に頼っている。
本研究では,雑音残差,JPEG圧縮トレース,周波数領域記述子などの法医学的特徴を融合したハイブリッドフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-31T11:32:52Z) - HyperFake: Hyperspectral Reconstruction and Attention-Guided Analysis for Advanced Deepfake Detection [2.198430261120653]
ディープフェイクはデジタルメディアのセキュリティに重大な脅威をもたらす。
現在の検出方法は、様々な操作テクニックをまたいだ一般化に苦慮している。
通常のRGBビデオから31チャンネルのハイパースペクトルデータを再構成する新しいディープフェイク検出パイプラインであるHyperFakeを紹介する。
論文 参考訳(メタデータ) (2025-05-24T08:28:55Z) - Faster Than Lies: Real-time Deepfake Detection using Binary Neural Networks [0.0]
ディープフェイク検出は、オンラインコンテンツへの信頼を損なうディープフェイクメディアの拡散と対比することを目的としている。
本稿では,BNN(Binary Neural Networks)を用いた画像に対する新しいディープフェイク検出手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T13:37:36Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Frame-rate Up-conversion Detection Based on Convolutional Neural Network
for Learning Spatiotemporal Features [7.895528973776606]
本稿では、FRUCによる法医学的特徴をエンドツーエンドに学習するフレームレート変換検出ネットワーク(FCDNet)を提案する。
FCDNetは連続するフレームのスタックを入力として使用し、ネットワークブロックを使ってアーティファクトを効果的に学習して特徴を学習する。
論文 参考訳(メタデータ) (2021-03-25T08:47:46Z) - Generalizing Face Forgery Detection with High-frequency Features [63.33397573649408]
現在のCNNベースの検出器は、メソッド固有の色テクスチャに過度に適合するため、一般化に失敗する傾向にある。
フェースフォージェリ検出に高周波雑音を用いることを提案する。
1つは、複数のスケールで高周波ノイズを抽出するマルチスケールの高周波特徴抽出モジュールである。
2つ目は、低レベルRGB特徴抽出器を導く残差誘導空間注意モジュールで、新しい視点からフォージェリートレースにもっと集中する。
論文 参考訳(メタデータ) (2021-03-23T08:19:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。