論文の概要: Compressed Deepfake Video Detection Based on 3D Spatiotemporal Trajectories
- arxiv url: http://arxiv.org/abs/2404.18149v1
- Date: Sun, 28 Apr 2024 11:48:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 17:43:14.521680
- Title: Compressed Deepfake Video Detection Based on 3D Spatiotemporal Trajectories
- Title(参考訳): 3次元時空間軌道に基づく圧縮ディープフェイク映像検出
- Authors: Zongmei Chen, Xin Liao, Xiaoshuai Wu, Yanxiang Chen,
- Abstract要約: 悪意あるアクターによるディープフェイク技術は、国家、社会、個人に潜在的な脅威をもたらす。
本稿では,3次元動作特徴に基づくディープフェイク映像検出手法を提案する。
提案手法は良好な結果をもたらし,実用化の可能性を示す。
- 参考スコア(独自算出の注目度): 10.913345858983275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The misuse of deepfake technology by malicious actors poses a potential threat to nations, societies, and individuals. However, existing methods for detecting deepfakes primarily focus on uncompressed videos, such as noise characteristics, local textures, or frequency statistics. When applied to compressed videos, these methods experience a decrease in detection performance and are less suitable for real-world scenarios. In this paper, we propose a deepfake video detection method based on 3D spatiotemporal trajectories. Specifically, we utilize a robust 3D model to construct spatiotemporal motion features, integrating feature details from both 2D and 3D frames to mitigate the influence of large head rotation angles or insufficient lighting within frames. Furthermore, we separate facial expressions from head movements and design a sequential analysis method based on phase space motion trajectories to explore the feature differences between genuine and fake faces in deepfake videos. We conduct extensive experiments to validate the performance of our proposed method on several compressed deepfake benchmarks. The robustness of the well-designed features is verified by calculating the consistent distribution of facial landmarks before and after video compression.Our method yields satisfactory results and showcases its potential for practical applications.
- Abstract(参考訳): 悪質なアクターによるディープフェイク技術の誤用は、国家、社会、個人に潜在的な脅威をもたらす。
しかし、ディープフェイクを検出する既存の方法は、主にノイズ特性、局所テクスチャ、周波数統計などの圧縮されていないビデオに焦点を当てている。
圧縮ビデオに適用した場合、これらの手法は検出性能の低下を経験し、現実のシナリオには適さない。
本稿では,3次元時空間軌跡に基づくディープフェイク映像検出手法を提案する。
具体的には、ロバストな3次元モデルを用いて時空間運動特性を構築し、2次元フレームと3次元フレームの両方の特徴の詳細を統合し、大きな頭部回転角やフレーム内の照明不足の影響を軽減する。
さらに, 頭部の動きから表情を分離し, 位相空間運動軌跡に基づく逐次解析手法を設計し, ディープフェイクビデオにおける顔と偽の顔の特徴差を探索する。
提案手法を圧縮したディープフェイクベンチマークで評価するために, 広範囲な実験を行った。
本手法は,映像圧縮前後の顔のランドマークの連続分布を計算し,そのロバスト性を検証し,その有効性を実証する。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - 3D Face Tracking from 2D Video through Iterative Dense UV to Image Flow [15.479024531161476]
本稿では,頂点ごとの高密度アライメントのための2次元アライメントネットワークを革新的に導入する新しいフェイストラッカーであるFlowFaceを提案する。
以前の作業とは異なり、FlowFaceは、弱い監視や合成データではなく、高品質な3Dスキャンアノテーションでトレーニングされている。
本手法は,カスタムベンチマークと公開ベンチマークの両方において,優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T14:20:07Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Robust Face-Swap Detection Based on 3D Facial Shape Information [59.32489266682952]
顔のスワップ画像やビデオは、悪意ある攻撃者を惹きつけ、重要な人物の信用を損ねている。
以前のピクセルレベルのアーティファクトに基づく検出技術は、常に不明瞭なパターンにフォーカスするが、利用可能なセマンティックなヒントは無視する。
キーフィギュアの顔・スワップ検出のための外観・形状特徴をフル活用するための生体情報に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-04-28T09:35:48Z) - Improving the Efficiency and Robustness of Deepfakes Detection through
Precise Geometric Features [13.033517345182728]
Deepfakesは、ターゲットの顔を元の顔にビデオで移植する悪質なテクニックの1つだ。
これまでのDeepfakesビデオ検出の取り組みは主に外観機能に焦点を当てており、高度な操作によってバイパスされるリスクがある。
高精度な幾何学的特徴を時間的モデル化してDeepfakesビデオを検出するための効率的かつ堅牢なフレームワークLRNetを提案します。
論文 参考訳(メタデータ) (2021-04-09T16:57:55Z) - Dynamic texture analysis for detecting fake faces in video sequences [6.1356022122903235]
本研究では,映像信号のテクスチャ・時間的ダイナミクスの解析について検討する。
目標は、実際の偽のシーケンスを識別し、識別することである。
時間セグメントの連成解析に基づいて複数の二分決定を構築することを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:21:24Z) - DeepFaceFlow: In-the-wild Dense 3D Facial Motion Estimation [56.56575063461169]
DeepFaceFlowは、3D非剛体顔の流れを推定するための堅牢で高速で高精度なフレームワークである。
私たちのフレームワークは、2つの非常に大規模な顔ビデオデータセットでトレーニングされ、テストされました。
登録された画像に対して,60fpsで3次元フローマップを生成する。
論文 参考訳(メタデータ) (2020-05-14T23:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。