論文の概要: Unearthing Common Inconsistency for Generalisable Deepfake Detection
- arxiv url: http://arxiv.org/abs/2311.11549v1
- Date: Mon, 20 Nov 2023 06:04:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 19:55:00.948167
- Title: Unearthing Common Inconsistency for Generalisable Deepfake Detection
- Title(参考訳): 一般的なディープフェイク検出の不整合性
- Authors: Beilin Chu, Xuan Xu, Weike You and Linna Zhou
- Abstract要約: ビデオレベル1は、複数のドメインにまたがる一般化と圧縮に対する堅牢性の両方を持つ可能性を示している。
本稿では,異なる偽造技術に広く存在するフレーム不整合を捉えることによって検出手法を提案する。
本研究では,時間的に保存されたモジュール法を導入し,空間雑音の摂動を導入し,時間的情報に対するモデルの注意を向ける。
- 参考スコア(独自算出の注目度): 8.327980745153216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake has emerged for several years, yet efficient detection techniques
could generalize over different manipulation methods require further research.
While current image-level detection method fails to generalize to unseen
domains, owing to the domain-shift phenomenon brought by CNN's strong inductive
bias towards Deepfake texture, video-level one shows its potential to have both
generalization across multiple domains and robustness to compression. We argue
that although distinct face manipulation tools have different inherent bias,
they all disrupt the consistency between frames, which is a natural
characteristic shared by authentic videos. Inspired by this, we proposed a
detection approach by capturing frame inconsistency that broadly exists in
different forgery techniques, termed unearthing-common-inconsistency (UCI).
Concretely, the UCI network based on self-supervised contrastive learning can
better distinguish temporal consistency between real and fake videos from
multiple domains. We introduced a temporally-preserved module method to
introduce spatial noise perturbations, directing the model's attention towards
temporal information. Subsequently, leveraging a multi-view cross-correlation
learning module, we extensively learn the disparities in temporal
representations between genuine and fake samples. Extensive experiments
demonstrate the generalization ability of our method on unseen Deepfake
domains.
- Abstract(参考訳): deepfakeは数年前から登場しているが、効率的な検出技術は様々な操作方法を一般化し、さらなる研究を必要とする可能性がある。
現在の画像レベル検出法は、ディープフェイクテクスチャに対するcnnの強い帰納的バイアスによって引き起こされるドメインシフト現象により、未認識領域への一般化に失敗するが、ビデオレベル検出は、複数の領域にまたがる一般化と圧縮に対する堅牢性の両方を持つ可能性を示している。
我々は、異なる顔操作ツールは固有のバイアスが異なるが、それらはいずれもフレーム間の一貫性を損なうと論じている。
そこで本研究では,異なる偽造技術に広く存在するフレーム不整合を捉えた検出手法を提案し,uci(unearthing-common-inconsistency)と呼ぶ。
具体的には、自己教師付きコントラスト学習に基づくUCIネットワークは、実と偽のビデオ間の時間的一貫性をよりよく区別することができる。
時間保存モジュール法を導入し,空間雑音の摂動を導入し,時間情報に注意を向けた。
その後、多視点相互相関学習モジュールを活用し、真偽サンプル間の時間的表現の相違を広範囲に学習する。
広範囲にわたる実験により,本手法のディープフェイク領域における一般化能力が実証された。
関連論文リスト
- DIP: Diffusion Learning of Inconsistency Pattern for General DeepFake Detection [18.116004258266535]
ディフュージョン不整合学習(DIP)のためのトランスフォーマーベースフレームワークを提案する。
提案手法は,偽の手がかりを効果的に同定し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-31T06:26:00Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Learning Natural Consistency Representation for Face Forgery Video Detection [23.53549629885891]
本研究では,自然表現(NACO)の実写映像を自己監督的に学習することを提案する。
我々の手法は、他の最先端の手法よりも優れたロバスト性を持つ。
論文 参考訳(メタデータ) (2024-07-15T09:00:02Z) - Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning [0.0]
ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
論文 参考訳(メタデータ) (2024-02-06T11:35:05Z) - Cross-Domain Local Characteristic Enhanced Deepfake Video Detection [18.430287055542315]
ディープフェイク検出はセキュリティ上の懸念から注目を集めている。
多くの検出器は、目に見えない操作を検出する際に正確な結果を得ることができない。
そこで我々は,より一般的なディープフェイクビデオ検出のための新しいパイプラインであるクロスドメインローカルフォレスティクスを提案する。
論文 参考訳(メタデータ) (2022-11-07T07:44:09Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Detection of Deepfake Videos Using Long Distance Attention [73.6659488380372]
既存のほとんどの検出方法は、問題をバニラ二項分類問題として扱う。
本稿では,偽顔と実顔の相違が非常に微妙であるため,特にきめ細かな分類問題として扱われる。
大域的な視点で空間的・時間的偽の痕跡を捉えるための2つの要素を持つ時空間モデルを提案する。
論文 参考訳(メタデータ) (2021-06-24T08:33:32Z) - Spatio-temporal Features for Generalized Detection of Deepfake Videos [12.453288832098314]
我々は3D CNNによってモデル化された時間的特徴を提案し、新しい種類のディープビデオを検出する能力を拡張した。
提案手法は,一般化能力において既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:28:50Z) - DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning [65.94499390875046]
DeFeat-Netは、クロスドメインの高密度な特徴表現を同時に学習するアプローチである。
提案手法は, 誤差対策を全て10%程度減らすことで, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-03-30T13:10:32Z) - Cross-domain Object Detection through Coarse-to-Fine Feature Adaptation [62.29076080124199]
本稿では,クロスドメインオブジェクト検出のための特徴適応手法を提案する。
粗粒度では、アテンション機構を採用して前景領域を抽出し、その辺縁分布に応じて整列する。
粒度の細かい段階では、同じカテゴリのグローバルプロトタイプと異なるドメインとの距離を最小化することにより、前景の条件分布アライメントを行う。
論文 参考訳(メタデータ) (2020-03-23T13:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。