論文の概要: How Do Deepfakes Move? Motion Magnification for Deepfake Source
Detection
- arxiv url: http://arxiv.org/abs/2212.14033v1
- Date: Wed, 28 Dec 2022 18:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 14:35:13.552111
- Title: How Do Deepfakes Move? Motion Magnification for Deepfake Source
Detection
- Title(参考訳): Deepfakesはどのように動くのか?
深発震源検出のための運動拡大
- Authors: Umur Aybars Ciftci, Ilke Demir
- Abstract要約: 顔の筋下運動に基づく一般化されたディープフェイク源検出器を構築した。
提案手法は実動作と増幅されたGAN指紋の違いを利用する。
我々は2つのマルチソースデータセットに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 4.567475511774088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the proliferation of deep generative models, deepfakes are improving in
quality and quantity everyday. However, there are subtle authenticity signals
in pristine videos, not replicated by SOTA GANs. We contrast the movement in
deepfakes and authentic videos by motion magnification towards building a
generalized deepfake source detector. The sub-muscular motion in faces has
different interpretations per different generative models which is reflected in
their generative residue. Our approach exploits the difference between real
motion and the amplified GAN fingerprints, by combining deep and traditional
motion magnification, to detect whether a video is fake and its source
generator if so. Evaluating our approach on two multi-source datasets, we
obtain 97.17% and 94.03% for video source detection. We compare against the
prior deepfake source detector and other complex architectures. We also analyze
the importance of magnification amount, phase extraction window, backbone
network architecture, sample counts, and sample lengths. Finally, we report our
results for different skin tones to assess the bias.
- Abstract(参考訳): 深層生成モデルの普及に伴い、ディープフェイクは毎日品質と量を改善している。
しかし、プリスタンビデオには微妙な認証信号があり、SOTA GANでは複製されない。
我々は,一般的なディープフェイク源検出器の構築に向けて,モーション拡大によるディープフェイクと本物のビデオの動きを対比する。
顔の筋肉下運動は、その生成残基に反映される異なる生成モデルごとに異なる解釈を持つ。
提案手法は,映像が偽物であるかどうかを検知するために,深部と従来の動きの倍率を組み合わせ,実動作と増幅されたGAN指紋の差を利用する。
2つのマルチソースデータセットに対するアプローチを評価し、ビデオソース検出の97.17%と94.03%を得る。
従来のdeepfakeソース検出器や他の複雑なアーキテクチャと比較する。
また,拡大量,位相抽出ウィンドウ,バックボーンネットワークアーキテクチャ,サンプル数,サンプル長の重要性についても検討した。
最後に, バイアスを評価するため, 皮膚音の異なる結果について報告する。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Undercover Deepfakes: Detecting Fake Segments in Videos [1.2609216345578933]
ディープフェイク・ジェネレーションは ディープフェイクの新しいパラダイムだ ほとんどは 真実を歪めるために わずかに修正された 実際のビデオだ
本稿では,フレームとビデオレベルでディープフェイク予測を行うことにより,この問題に対処できるディープフェイク検出手法を提案する。
特に、私たちが取り組むパラダイムは、ディープフェイクのモデレーションのための強力なツールを形成します。
論文 参考訳(メタデータ) (2023-05-11T04:43:10Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Model Attribution of Face-swap Deepfake Videos [39.771800841412414]
まず、いくつかのAutoencoderモデルに基づいて、DeepFakes from Different Models (DFDM)を用いた新しいデータセットを導入する。
具体的には、エンコーダ、デコーダ、中間層、入力解像度、圧縮比の5つの世代モデルを用いて、合計6450のDeepfakeビデオを生成する。
我々は,Deepfakesモデルの属性を多クラス分類タスクとして捉え,Deepfakes間の差異を探索するための空間的・時間的注意に基づく手法を提案する。
論文 参考訳(メタデータ) (2022-02-25T20:05:18Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Where Do Deep Fakes Look? Synthetic Face Detection via Gaze Tracking [8.473714899301601]
ディープフェイクと異なる目と視線の特徴をいくつか提案する。
次に、これらの機能をシグネチャにコンパイルし、リアルビデオとフェイクビデオの機能を分析および比較します。
第3に,この公式をディープニューラルネットワークによるディープフェイク検出問題に一般化する。
論文 参考訳(メタデータ) (2021-01-04T18:54:46Z) - How Do the Hearts of Deep Fakes Beat? Deep Fake Source Detection via
Interpreting Residuals with Biological Signals [9.918684475252636]
本研究では, 真偽を分離するだけでなく, 真偽の背後にある特定の生成モデルを発見するアプローチを提案する。
提案手法は,97.29%の精度で偽動画を検出でき,93.39%の精度でソースモデルを検出できることを示す。
論文 参考訳(メタデータ) (2020-08-26T03:35:47Z) - Emotions Don't Lie: An Audio-Visual Deepfake Detection Method Using
Affective Cues [75.1731999380562]
本稿では,実・偽のディープフェイクマルチメディアコンテンツを検出する学習手法を提案する。
我々は,同じビデオから2つのオーディオと視覚の類似性を抽出し,解析する。
我々は,いくつかのSOTAディープフェイク検出手法との比較を行い,DFDCでは84.4%,DF-TIMITデータセットでは96.6%の動画AUCを報告した。
論文 参考訳(メタデータ) (2020-03-14T22:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。