論文の概要: Delving into Sequential Patches for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2207.02803v1
- Date: Wed, 6 Jul 2022 16:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 13:50:29.324307
- Title: Delving into Sequential Patches for Deepfake Detection
- Title(参考訳): ディープフェイク検出のためのシークエンシャルパッチへの埋め込み
- Authors: Jiazhi Guan, Hang Zhou, Zhibin Hong, Errui Ding, Jingdong Wang,
Chengbin Quan, Youjian Zhao
- Abstract要約: 近年の顔偽造技術は、ほとんど追跡不可能なディープフェイクビデオを生み出しており、悪意のある意図で活用することができる。
従来の研究では、ディープフェイク法にまたがる一般化を追求する上で、局所的な低レベルな手がかりと時間的情報の重要性が指摘されてきた。
本稿では,局所的・時間的変換をベースとしたDeepfake Detectionフレームワークを提案する。
- 参考スコア(独自算出の注目度): 64.19468088546743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in face forgery techniques produce nearly visually
untraceable deepfake videos, which could be leveraged with malicious
intentions. As a result, researchers have been devoted to deepfake detection.
Previous studies has identified the importance of local low-level cues and
temporal information in pursuit to generalize well across deepfake methods,
however, they still suffer from robustness problem against post-processings. In
this work, we propose the Local- & Temporal-aware Transformer-based Deepfake
Detection (LTTD) framework, which adopts a local-to-global learning protocol
with a particular focus on the valuable temporal information within local
sequences. Specifically, we propose a Local Sequence Transformer (LST), which
models the temporal consistency on sequences of restricted spatial regions,
where low-level information is hierarchically enhanced with shallow layers of
learned 3D filters. Based on the local temporal embeddings, we then achieve the
final classification in a global contrastive way. Extensive experiments on
popular datasets validate that our approach effectively spots local forgery
cues and achieves state-of-the-art performance.
- Abstract(参考訳): 近年の顔偽造技術は、ほとんど視覚的に追跡できないディープフェイクビデオを生み出しており、悪意のある意図で活用することができる。
その結果、研究者はディープフェイク検出に力を入れている。
これまでの研究では、ディープフェイク法をうまく一般化するために、局所的な低レベルな手がかりと時間的情報の重要性が示されているが、後処理に対する堅牢性の問題に苦しめられている。
本稿では,局所的・時間的対応型トランスフォーマティブに基づくdeepfake detection(lttd)フレームワークを提案する。
具体的には,低レベルの情報を浅い3dフィルタの層で階層的に拡張する制限された空間領域のシーケンスの時間的一貫性をモデル化するローカルシーケンストランスフォーマ(lst)を提案する。
局所的な時間的埋め込みに基づいて、大域的な対照的な方法で最終分類を行う。
一般的なデータセットに関する広範囲な実験によって、我々のアプローチが、ローカルな偽造の手がかりを効果的に見つけ出し、最先端のパフォーマンスを達成することを検証しています。
関連論文リスト
- Frequency-Aware Deepfake Detection: Improving Generalizability through
Frequency Space Learning [81.98675881423131]
この研究は、目に見えないディープフェイク画像を効果的に識別できるユニバーサルディープフェイク検出器を開発するという課題に対処する。
既存の周波数ベースのパラダイムは、偽造検出のためにGANパイプラインのアップサンプリング中に導入された周波数レベルのアーティファクトに依存している。
本稿では、周波数領域学習を中心にしたFreqNetと呼ばれる新しい周波数認識手法を導入し、ディープフェイク検出器の一般化性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-03-12T01:28:00Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Towards Generalizable Deepfake Detection by Primary Region
Regularization [52.41801719896089]
本稿では,新しい正規化の観点から一般化能力を高める。
本手法は, 一次領域マップの静的な位置決めと, 一次領域マスクの動的利用の2段階からなる。
5つのバックボーンを持つDFDC,DF-1.0,Celeb-DFの3種類のディープフェイクデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-07-24T05:43:34Z) - Detect Any Deepfakes: Segment Anything Meets Face Forgery Detection and
Localization [30.317619885984005]
本稿では,視覚的セグメンテーション基盤モデル,すなわちセグメンテーションモデル(SAM)をフォージェリ検出とローカライゼーションの対面に導入する。
SAMに基づいて,Multiscale Adapterを用いたDADFフレームワークを提案する。
提案するフレームワークは、エンドツーエンドのフォージェリーローカライゼーションと検出最適化をシームレスに統合する。
論文 参考訳(メタデータ) (2023-06-29T16:25:04Z) - LatentForensics: Towards frugal deepfake detection in the StyleGAN latent space [2.629091178090276]
本稿では,高品質な顔画像で訓練された最先端生成逆数ネットワーク(GAN)の潜時空間で動作するディープフェイク検出手法を提案する。
標準データセットの実験結果から,提案手法が他の最先端のディープフェイク分類法よりも優れていることが明らかになった。
論文 参考訳(メタデータ) (2023-03-30T08:36:48Z) - Cross-Domain Local Characteristic Enhanced Deepfake Video Detection [18.430287055542315]
ディープフェイク検出はセキュリティ上の懸念から注目を集めている。
多くの検出器は、目に見えない操作を検出する際に正確な結果を得ることができない。
そこで我々は,より一般的なディープフェイクビデオ検出のための新しいパイプラインであるクロスドメインローカルフォレスティクスを提案する。
論文 参考訳(メタデータ) (2022-11-07T07:44:09Z) - Exploring Spatial-Temporal Features for Deepfake Detection and
Localization [0.0]
本稿では,空間的特徴と時間的特徴を同時に探索するDeepfakeネットワークを提案する。
具体的には、顔のマイクロ圧縮の正確な幾何学的動きをモデル化することにより、時間的(動き)の特徴を抽出する新しいアンカー・メシュ・モーション(AMM)アルゴリズムを設計する。
我々のST-DDLネットワークの優位性は、いくつかの最先端の競合相手との実験的比較によって検証される。
論文 参考訳(メタデータ) (2022-10-28T03:38:49Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Spatio-temporal Features for Generalized Detection of Deepfake Videos [12.453288832098314]
我々は3D CNNによってモデル化された時間的特徴を提案し、新しい種類のディープビデオを検出する能力を拡張した。
提案手法は,一般化能力において既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T16:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。