論文の概要: Model Attribution of Face-swap Deepfake Videos
- arxiv url: http://arxiv.org/abs/2202.12951v1
- Date: Fri, 25 Feb 2022 20:05:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:11:29.205879
- Title: Model Attribution of Face-swap Deepfake Videos
- Title(参考訳): face-swap deepfakeビデオのモデル帰属
- Authors: Shan Jia, Xin Li, Siwei Lyu
- Abstract要約: まず、いくつかのAutoencoderモデルに基づいて、DeepFakes from Different Models (DFDM)を用いた新しいデータセットを導入する。
具体的には、エンコーダ、デコーダ、中間層、入力解像度、圧縮比の5つの世代モデルを用いて、合計6450のDeepfakeビデオを生成する。
我々は,Deepfakesモデルの属性を多クラス分類タスクとして捉え,Deepfakes間の差異を探索するための空間的・時間的注意に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 39.771800841412414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-created face-swap videos, commonly known as Deepfakes, have attracted wide
attention as powerful impersonation attacks. Existing research on Deepfakes
mostly focuses on binary detection to distinguish between real and fake videos.
However, it is also important to determine the specific generation model for a
fake video, which can help attribute it to the source for forensic
investigation. In this paper, we fill this gap by studying the model
attribution problem of Deepfake videos. We first introduce a new dataset with
DeepFakes from Different Models (DFDM) based on several Autoencoder models.
Specifically, five generation models with variations in encoder, decoder,
intermediate layer, input resolution, and compression ratio have been used to
generate a total of 6,450 Deepfake videos based on the same input. Then we take
Deepfakes model attribution as a multiclass classification task and propose a
spatial and temporal attention based method to explore the differences among
Deepfakes in the new dataset. Experimental evaluation shows that most existing
Deepfakes detection methods failed in Deepfakes model attribution, while the
proposed method achieved over 70% accuracy on the high-quality DFDM dataset.
- Abstract(参考訳): aiが生成したフェイススワップビデオは、一般的にはdeepfakesと呼ばれ、強力な偽装攻撃として広く注目を集めている。
既存のDeepfakesの研究は、主に、本物と偽のビデオを区別するためのバイナリ検出に焦点を当てている。
しかし、偽ビデオの特定の生成モデルを決定することも重要である。
本稿では,Deepfakeビデオのモデル属性問題を研究することにより,このギャップを埋める。
まず,複数のAutoencoderモデルに基づくDFDM(DeepFakes from Different Models)を用いた新しいデータセットを提案する。
具体的には、エンコーダ、デコーダ、中間層、入力解像度、圧縮比の5つの世代モデルを用いて、同じ入力に基づいて合計6450のDeepfakeビデオを生成する。
次に、Deepfakesモデル属性を多クラス分類タスクとして、新しいデータセットにおけるDeepfakes間の差異を探索するための空間的および時間的注意に基づく手法を提案する。
実験により,既存のDeepfakes検出手法のほとんどはDeepfakesモデル帰属に失敗し,提案手法は高品質なDFDMデータセット上で70%以上の精度を達成した。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - CapST: An Enhanced and Lightweight Model Attribution Approach for
Synthetic Videos [9.209808258321559]
本稿では、最近提案されたデータセット、DFDM(Deepfakes from Different Models)からのDeepfakeビデオのモデル属性問題について検討する。
データセットは、エンコーダ、デコーダ、中間層、入力解像度、圧縮比の5つの異なるモデルによって生成された6,450のDeepfakeビデオからなる。
ディープフェイク・ベンチマーク・データセット(DFDM)による実験結果から提案手法の有効性が示され、ディープフェイク・ビデオの正確な分類において最大4%の改善が達成された。
論文 参考訳(メタデータ) (2023-11-07T08:05:09Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - TAR: Generalized Forensic Framework to Detect Deepfakes using Weakly
Supervised Learning [17.40885531847159]
ディープフェイクは重要な社会問題となり、それらを検出することが非常に重要です。
本研究では,異なる種類のディープフェイクを同時に検出する実用的なデジタル鑑識ツールを提案する。
レジデンシャルブロックを用いた自動エンコーダベースの検出モデルを開発し、異なる種類のディープフェイクを同時に検出する転送学習を順次実施します。
論文 参考訳(メタデータ) (2021-05-13T07:31:08Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Deepfake Detection Scheme Based on Vision Transformer and Distillation [4.716110829725784]
偽ビデオ検出のための蒸留法を用いたVision Transformerモデルを提案する。
提案手法は,CNN機能の組み合わせにより,入力としてのパッチ埋め込みが最先端であることを確認した。
論文 参考訳(メタデータ) (2021-04-03T09:13:05Z) - Deepfake Detection using Spatiotemporal Convolutional Networks [0.0]
ディープフェイク検出法は個々のフレームのみを使用し、時間情報から学習することができない。
我々はCeleb-DFデータセットを用いて性能のベンチマークを作成した。
提案手法は,最先端のフレームベース検出法より優れていた。
論文 参考訳(メタデータ) (2020-06-26T01:32:31Z) - The DeepFake Detection Challenge (DFDC) Dataset [8.451007921188019]
Deepfakesは、誰でも一つのビデオで2つのIDを交換できるテクニックだ。
この新たな脅威に対処するため、私たちは非常に大きな顔スワップビデオデータセットを構築しました。
記録されたすべての被験者は、顔障害者データセットの構築中にその類似性を変更し、参加することに同意した。
論文 参考訳(メタデータ) (2020-06-12T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。