論文の概要: Beyond Flicker: Detecting Kinematic Inconsistencies for Generalizable Deepfake Video Detection
- arxiv url: http://arxiv.org/abs/2512.04175v1
- Date: Wed, 03 Dec 2025 19:00:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.827929
- Title: Beyond Flicker: Detecting Kinematic Inconsistencies for Generalizable Deepfake Video Detection
- Title(参考訳): Beyond Flicker: 一般的なディープフェイクビデオ検出のためのキネマティックな不整合の検出
- Authors: Alejandro Cobo, Roberto Valle, José Miguel Buenaposada, Luis Baumela,
- Abstract要約: ディープフェイク検出を目に見えない操作に一般化することは、依然として重要な課題である。
最近のアプローチでは、手作りの人工物で操作された原始的な顔画像でネットワークを訓練し、より一般化可能な手がかりを抽出する。
微妙な矛盾のあるトレーニングデータを生成する合成ビデオ生成法を提案する。
- 参考スコア(独自算出の注目度): 41.44337153700898
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generalizing deepfake detection to unseen manipulations remains a key challenge. A recent approach to tackle this issue is to train a network with pristine face images that have been manipulated with hand-crafted artifacts to extract more generalizable clues. While effective for static images, extending this to the video domain is an open issue. Existing methods model temporal artifacts as frame-to-frame instabilities, overlooking a key vulnerability: the violation of natural motion dependencies between different facial regions. In this paper, we propose a synthetic video generation method that creates training data with subtle kinematic inconsistencies. We train an autoencoder to decompose facial landmark configurations into motion bases. By manipulating these bases, we selectively break the natural correlations in facial movements and introduce these artifacts into pristine videos via face morphing. A network trained on our data learns to spot these sophisticated biomechanical flaws, achieving state-of-the-art generalization results on several popular benchmarks.
- Abstract(参考訳): ディープフェイク検出を目に見えない操作に一般化することは、依然として重要な課題である。
この問題に対処する最近のアプローチは、手作りのアーティファクトで操作された原始的な顔画像でネットワークを訓練し、より一般化可能な手がかりを抽出することである。
静的画像には有効だが、これをビデオ領域に拡張することは未解決の問題だ。
既存の方法は、時間的アーティファクトをフレーム間不安定(frame-to-frame)としてモデル化し、重要な脆弱性を見落としている。
本稿では,微妙なキネマティック不整合を伴うトレーニングデータを生成する合成ビデオ生成手法を提案する。
顔のランドマーク構成をモーションベースに分解するオートエンコーダを訓練する。
これらのベースを操作することで、顔の動きの自然な相関関係を選択的に破壊し、顔のモーフィングを通じてこれらのアーティファクトをプリスタンビデオに導入する。
データに基づいてトレーニングされたネットワークは、これらの高度なバイオメカニカルな欠陥を見つけることを学び、いくつかの人気のあるベンチマークで最先端の一般化結果を達成する。
関連論文リスト
- Vulnerability-Aware Spatio-Temporal Learning for Generalizable Deepfake Video Detection [14.586314545834934]
本稿では,FakeSTormerと呼ばれる微細なディープフェイク映像検出手法を提案する。
具体的には、2つの補助分岐を組み込んだマルチタスク学習フレームワークを導入する。
また、微妙な時間的アーティファクトを持つ擬似フェイクビデオを生成するビデオレベルの合成戦略を提案する。
論文 参考訳(メタデータ) (2025-01-02T10:21:34Z) - Learning Expressive And Generalizable Motion Features For Face Forgery
Detection [52.54404879581527]
本稿では,既存のビデオ分類手法に基づく,シーケンスに基づく効果的な偽造検出フレームワークを提案する。
動作特徴をより表現しやすくするために,別の動作整合ブロックを提案する。
一般的なビデオ分類ネットワークを3つの顔偽造データに対して有望な結果を達成する。
論文 参考訳(メタデータ) (2024-03-08T09:25:48Z) - Face Forgery Detection Based on Facial Region Displacement Trajectory
Series [10.338298543908339]
本研究では,顔領域変位の軌跡に基づく操作映像の検出手法を開発した。
この情報を用いて、操作されたビデオの軌跡列に多次元のアーティファクトを露呈するネットワークを構築した。
論文 参考訳(メタデータ) (2022-12-07T14:47:54Z) - Multimodal Graph Learning for Deepfake Detection [10.077496841634135]
既存のディープフェイク検出器は、堅牢性と一般化を達成する上でいくつかの課題に直面している。
本稿では,マルチモーダルグラフ学習(MGL)という新しいフレームワークを提案する。
提案手法は,ディープフェイク検出のための特徴を効果的に識別し,活用することを目的としている。
論文 参考訳(メタデータ) (2022-09-12T17:17:49Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Deepfake Video Detection with Spatiotemporal Dropout Transformer [32.577096083927884]
本稿では,ドロップアウトトランスによるディープフェイク映像の検出を容易にするための,単純かつ効果的なパッチレベルアプローチを提案する。
このアプローチでは、各入力ビデオがパッチの袋に再編成され、その後視覚変換器に送られ、堅牢な表現を実現する。
論文 参考訳(メタデータ) (2022-07-14T02:04:42Z) - Copy Motion From One to Another: Fake Motion Video Generation [53.676020148034034]
人工知能の魅力的な応用は、任意の所望の動作を行う対象者のビデオを生成することである。
現在の手法では、通常、生成されたビデオの信頼性を評価するために、L2損失のGANを用いる。
本稿では,ポーズから前景画像へのマッピングの学習を容易にする理論的動機付け型Gromov-Wasserstein損失を提案する。
本手法は,人物の複雑な動きを忠実にコピーすることで,現実的な人物映像を生成できる。
論文 参考訳(メタデータ) (2022-05-03T08:45:22Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。