論文の概要: Bridging the Gap: A Framework for Real-World Video Deepfake Detection via Social Network Compression Emulation
- arxiv url: http://arxiv.org/abs/2508.08765v1
- Date: Tue, 12 Aug 2025 09:11:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.361362
- Title: Bridging the Gap: A Framework for Real-World Video Deepfake Detection via Social Network Compression Emulation
- Title(参考訳): ギャップを埋める:ソーシャルネットワークの圧縮エミュレーションによるリアルタイムビデオディープフェイク検出フレームワーク
- Authors: Andrea Montibeller, Dasara Shullani, Daniele Baracchi, Alessandro Piva, Giulia Boato,
- Abstract要約: このギャップの背後にある重要な要因は、YouTubeやFacebookのようなプラットフォームが適用する攻撃的でプロプライエタリな圧縮だ。
ソーシャルネットワークの動画共有パイプラインをエミュレートする第1のフレームワークを提案する。
我々のアプローチは、研究室ベースのトレーニングとディープフェイク検出器の実際の展開の間のギャップを埋める、スケーラブルで実用的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 43.67218011121795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing presence of AI-generated videos on social networks poses new challenges for deepfake detection, as detectors trained under controlled conditions often fail to generalize to real-world scenarios. A key factor behind this gap is the aggressive, proprietary compression applied by platforms like YouTube and Facebook, which launder low-level forensic cues. However, replicating these transformations at scale is difficult due to API limitations and data-sharing constraints. For these reasons, we propose a first framework that emulates the video sharing pipelines of social networks by estimating compression and resizing parameters from a small set of uploaded videos. These parameters enable a local emulator capable of reproducing platform-specific artifacts on large datasets without direct API access. Experiments on FaceForensics++ videos shared via social networks demonstrate that our emulated data closely matches the degradation patterns of real uploads. Furthermore, detectors fine-tuned on emulated videos achieve comparable performance to those trained on actual shared media. Our approach offers a scalable and practical solution for bridging the gap between lab-based training and real-world deployment of deepfake detectors, particularly in the underexplored domain of compressed video content.
- Abstract(参考訳): ソーシャルネットワークにおけるAI生成ビデオの存在の増加は、制御された条件下で訓練された検出器が現実のシナリオに一般化できないため、ディープフェイク検出に新たな課題をもたらす。
このギャップの背後にある重要な要因は、YouTubeやFacebookのようなプラットフォームが適用する攻撃的かつプロプライエタリな圧縮であり、低レベルの法医学的手がかりを助長している。
しかし、これらの変換を大規模に複製することは、APIの制限とデータ共有の制約のために難しい。
これらの理由から、ソーシャルネットワークの動画共有パイプラインをエミュレートする第1のフレームワークを提案する。
これらのパラメータにより、ローカルエミュレータは、APIに直接アクセスすることなく、大規模なデータセット上でプラットフォーム固有のアーティファクトを再生することができる。
FaceForensics++のビデオがソーシャルネットワークで共有されている実験によると、エミュレートされたデータは実際のアップロードの劣化パターンとよく一致している。
さらに、エミュレートされたビデオに微調整された検出器は、実際の共有メディアで訓練されたものと同等のパフォーマンスを達成する。
我々のアプローチは、実験室ベースのトレーニングとディープフェイク検出器の実際の展開のギャップを埋める、スケーラブルで実用的なソリューションを提供する。
関連論文リスト
- GV-VAD : Exploring Video Generation for Weakly-Supervised Video Anomaly Detection [6.09434007746295]
ビデオ異常検出(VAD)は、インテリジェント監視などの公共安全アプリケーションにおいて重要な役割を果たす。
本稿では, 意味制御可能な, 物理的に可視な合成ビデオを生成するために, 映像強化弱教師付きVADフレームワークを提案する。
提案するフレームワークは,UCF-Crimeデータセットの最先端手法より優れている。
論文 参考訳(メタデータ) (2025-08-01T04:42:40Z) - Embedding Compression Distortion in Video Coding for Machines [67.97469042910855]
現在、ビデオ伝送は人間の視覚システム(HVS)だけでなく、分析のための機械認識にも役立っている。
本稿では,機械知覚関連歪み表現を抽出し,下流モデルに埋め込む圧縮歪埋め込み(CDRE)フレームワークを提案する。
我々のフレームワークは,実行時間,パラメータ数といったオーバーヘッドを最小限に抑えて,既存のコーデックのレートタスク性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2025-03-27T13:01:53Z) - Learning Spatiotemporal Inconsistency via Thumbnail Layout for Face Deepfake Detection [41.35861722481721]
社会とサイバーセキュリティに対するディープフェイクの脅威は、重大な公衆の不安を引き起こしている。
本稿では,Thumbnail Layout(TALL)という,エレガントでシンプルだが効果的な戦略を紹介する。
TALLはビデオクリップを予め定義されたレイアウトに変換し、空間的および時間的依存関係の保存を実現する。
論文 参考訳(メタデータ) (2024-03-15T12:48:44Z) - AVTENet: A Human-Cognition-Inspired Audio-Visual Transformer-Based Ensemble Network for Video Deepfake Detection [49.81915942821647]
本研究では、ディープフェイクビデオを検出するために、オーディオ・ヴィジュアル・トランスフォーマー・ベースのアンサンブルネットワーク(AVTENet)を導入する。
評価には、最近リリースされたマルチモーダルオーディオビデオFakeAVCelebデータセットを使用する。
AVTENetとその変種およびいくつかの既存手法をFakeAVCelebデータセットの複数のテストセット上で評価する。
論文 参考訳(メタデータ) (2023-10-19T19:01:26Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Exposing Deep-faked Videos by Anomalous Co-motion Pattern Detection [23.08488360126588]
本研究では,ディープフェイク映像の露出に特化して設計された完全解釈可能なビデオ法則を提案する。
各種コンテンツによる映像の一般化性を高めるため,ビデオ内の複数の特定の空間的位置の時間的動きをモデル化する。
提案したコモーションパターンは,ディープフェイク映像のデータ圧縮に対して,優れた解釈性と十分なロバスト性を有する。
論文 参考訳(メタデータ) (2020-08-11T16:47:02Z) - Sharp Multiple Instance Learning for DeepFake Video Detection [54.12548421282696]
我々はDeepFakeビデオに、ビデオレベルのラベルのみを提供するが、フェイクビデオのすべての顔が操作されるわけではない部分的な顔攻撃という新しい問題を導入する。
インスタンス埋め込みからバッグ予測への直接マッピングを構築する鋭いMIL(S-MIL)を提案する。
FFPMSと広く使われているDFDCデータセットの実験により、S-MILは部分的に攻撃されたDeepFakeビデオ検出において他の手法よりも優れていることが確認された。
論文 参考訳(メタデータ) (2020-08-11T08:52:17Z) - Two-branch Recurrent Network for Isolating Deepfakes in Videos [17.59209853264258]
本稿では,2分岐ネットワーク構造に基づくディープフェイク検出手法を提案する。
1つのブランチは元の情報を伝達し、もう1つのブランチは顔の内容を抑制する。
当社の2つの新しいコンポーネントは、FaceForensics++、Celeb-DF、FacebookのDFDCプレビューベンチマークで有望な結果を示している。
論文 参考訳(メタデータ) (2020-08-08T01:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。