論文の概要: Exposing Deep-faked Videos by Anomalous Co-motion Pattern Detection
- arxiv url: http://arxiv.org/abs/2008.04848v1
- Date: Tue, 11 Aug 2020 16:47:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 11:12:30.951380
- Title: Exposing Deep-faked Videos by Anomalous Co-motion Pattern Detection
- Title(参考訳): 異常コモーションパターン検出によるディープフェイク映像の露出
- Authors: Gengxing Wang, Jiahuan Zhou, Ying Wu
- Abstract要約: 本研究では,ディープフェイク映像の露出に特化して設計された完全解釈可能なビデオ法則を提案する。
各種コンテンツによる映像の一般化性を高めるため,ビデオ内の複数の特定の空間的位置の時間的動きをモデル化する。
提案したコモーションパターンは,ディープフェイク映像のデータ圧縮に対して,優れた解釈性と十分なロバスト性を有する。
- 参考スコア(独自算出の注目度): 23.08488360126588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent deep learning based video synthesis approaches, in particular with
applications that can forge identities such as "DeepFake", have raised great
security concerns. Therefore, corresponding deep forensic methods are proposed
to tackle this problem. However, existing methods are either based on
unexplainable deep networks which greatly degrades the principal
interpretability factor to media forensic, or rely on fragile image statistics
such as noise pattern, which in real-world scenarios can be easily deteriorated
by data compression. In this paper, we propose an fully-interpretable video
forensic method that is designed specifically to expose deep-faked videos. To
enhance generalizability on videos with various content, we model the temporal
motion of multiple specific spatial locations in the videos to extract a robust
and reliable representation, called Co-Motion Pattern. Such kind of conjoint
pattern is mined across local motion features which is independent of the video
contents so that the instance-wise variation can also be largely alleviated.
More importantly, our proposed co-motion pattern possesses both superior
interpretability and sufficient robustness against data compression for
deep-faked videos. We conduct extensive experiments to empirically demonstrate
the superiority and effectiveness of our approach under both classification and
anomaly detection evaluation settings against the state-of-the-art deep
forensic methods.
- Abstract(参考訳): 最近のディープラーニングベースのビデオ合成アプローチ、特に"DeepFake"のようなアイデンティティを偽造できるアプリケーションでは、セキュリティに大きな懸念が持ち上がっている。
そこで,この問題に対処するために,対応する深層法学手法を提案する。
しかし、既存の手法は説明不能なディープネットワークに基づいており、メディア法医学における主解釈可能性因子を著しく低下させるか、あるいは実世界のシナリオではデータ圧縮によって容易に劣化するノイズパターンのような脆弱な画像統計に頼っている。
本稿では,ディープフェイク映像の露出を念頭に設計した,完全に解釈可能なビデオ鑑識手法を提案する。
各種コンテンツによる映像の一般化性を高めるため,ビデオ内の複数の空間的位置の時間的動きをモデル化し,コモーションパターンと呼ばれる頑健で信頼性の高い表現を抽出する。
このような結合パターンは、映像コンテンツとは独立な局所的な動き特徴にまたがってマイニングされ、インスタンスワイドの変動も軽減される。
より重要なことに,提案するコモーションパターンは,より優れた解釈性と,ディープフェイクビデオのデータ圧縮に対する十分な頑健性を有する。
我々は,最先端の深部法医学的手法に対する分類・異常検出評価条件下でのアプローチの優位性と効果を実証的に示すために,広範な実験を行った。
関連論文リスト
- Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning [0.0]
ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
論文 参考訳(メタデータ) (2024-02-06T11:35:05Z) - Unsupervised Multimodal Deepfake Detection Using Intra- and Cross-Modal Inconsistencies [14.660707087391463]
ディープフェイクビデオは、刑事司法、民主主義、個人の安全とプライバシーに悪影響を及ぼす可能性のある社会への脅威が増えていることを示している。
本稿では,ビデオセグメント間のモーダル内およびモーダル間不整合を直接同定することで,ディープフェイク動画を検出する新しい教師なし手法を提案する。
提案手法は,FakeAVCelebデータセットを用いた非教師なしディープフェイク検出手法よりも優れていた。
論文 参考訳(メタデータ) (2023-11-28T03:28:19Z) - Unearthing Common Inconsistency for Generalisable Deepfake Detection [8.327980745153216]
ビデオレベル1は、複数のドメインにまたがる一般化と圧縮に対する堅牢性の両方を持つ可能性を示している。
本稿では,異なる偽造技術に広く存在するフレーム不整合を捉えることによって検出手法を提案する。
本研究では,時間的に保存されたモジュール法を導入し,空間雑音の摂動を導入し,時間的情報に対するモデルの注意を向ける。
論文 参考訳(メタデータ) (2023-11-20T06:04:09Z) - CapST: An Enhanced and Lightweight Model Attribution Approach for
Synthetic Videos [9.209808258321559]
本稿では、最近提案されたデータセット、DFDM(Deepfakes from Different Models)からのDeepfakeビデオのモデル属性問題について検討する。
データセットは、エンコーダ、デコーダ、中間層、入力解像度、圧縮比の5つの異なるモデルによって生成された6,450のDeepfakeビデオからなる。
ディープフェイク・ベンチマーク・データセット(DFDM)による実験結果から提案手法の有効性が示され、ディープフェイク・ビデオの正確な分類において最大4%の改善が達成された。
論文 参考訳(メタデータ) (2023-11-07T08:05:09Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Combining Contrastive and Supervised Learning for Video Super-Resolution
Detection [0.0]
コントラストとクロスエントロピーの損失を用いた視覚表現の学習に基づく新しいアップスケール分解能検出法を提案する。
本手法は,圧縮ビデオにおいてもアップスケーリングを効果的に検出し,最先端の代替品よりも優れる。
論文 参考訳(メタデータ) (2022-05-20T18:58:13Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。