論文の概要: Where Do Deep Fakes Look? Synthetic Face Detection via Gaze Tracking
- arxiv url: http://arxiv.org/abs/2101.01165v1
- Date: Mon, 4 Jan 2021 18:54:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 23:03:22.299076
- Title: Where Do Deep Fakes Look? Synthetic Face Detection via Gaze Tracking
- Title(参考訳): ディープフェイクはどこに見える?
視線追跡による合成顔検出
- Authors: Ilke Demir and Umur A. Ciftci
- Abstract要約: ディープフェイクと異なる目と視線の特徴をいくつか提案する。
次に、これらの機能をシグネチャにコンパイルし、リアルビデオとフェイクビデオの機能を分析および比較します。
第3に,この公式をディープニューラルネットワークによるディープフェイク検出問題に一般化する。
- 参考スコア(独自算出の注目度): 8.473714899301601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Following the recent initiatives for the democratization of AI, deep fake
generators have become increasingly popular and accessible, causing dystopian
scenarios towards social erosion of trust. A particular domain, such as
biological signals, attracted attention towards detection methods that are
capable of exploiting authenticity signatures in real videos that are not yet
faked by generative approaches. In this paper, we first propose several
prominent eye and gaze features that deep fakes exhibit differently. Second, we
compile those features into signatures and analyze and compare those of real
and fake videos, formulating geometric, visual, metric, temporal, and spectral
variations. Third, we generalize this formulation to deep fake detection
problem by a deep neural network, to classify any video in the wild as fake or
real. We evaluate our approach on several deep fake datasets, achieving 89.79\%
accuracy on FaceForensics++, 80.0\% on Deep Fakes (in the wild), and 88.35\% on
CelebDF datasets. We conduct ablation studies involving different features,
architectures, sequence durations, and post-processing artifacts. Our analysis
concludes with 6.29\% improved accuracy over complex network architectures
without the proposed gaze signatures.
- Abstract(参考訳): AIの民主化の最近の取り組みに続き、ディープフェイクジェネレータはますます普及し、アクセスしやすくなり、ディストピア的なシナリオが信頼の社会的侵食に繋がった。
生物学的信号のような特定の領域は、生成的アプローチによってまだ偽造されていない実ビデオの真正性シグネチャを活用できる検出方法に注意を向けた。
本稿では,まず,ディープフェイクが異なる目と視線の特徴をいくつか提案する。
第二に、これらの特徴をシグネチャにコンパイルし、幾何学的、視覚的、計量的、時間的、スペクトル的なバリエーションを定式化して、リアルビデオとフェイクビデオを比較し、比較する。
第3に,本手法をディープニューラルネットワークによるディープフェイク検出問題に一般化し,野生の動画をフェイクあるいはリアルに分類する。
我々は、FaceForensics++で89.79\%、Deep Fakesで80.0\%、CelebDFで88.35\%の精度で、いくつかのディープフェイクデータセットに対するアプローチを評価した。
我々は,異なる特徴,アーキテクチャ,シーケンス持続時間,処理後アーティファクトを含むアブレーション研究を行う。
その結果,提案する視線シグネチャを使わずに複雑なネットワークアーキテクチャよりも6.29\%精度が向上した。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Shaking the Fake: Detecting Deepfake Videos in Real Time via Active Probes [3.6308756891251392]
生成AIの一種であるリアルタイムディープフェイク(Real-time Deepfake)は、ビデオ内の既存のコンテンツ(例えば、顔を別のものと交換する)を「生成する」ことができる。
金融詐欺や政治的誤報など、悪意ある目的のためにディープフェイクビデオを作るのに誤用されている。
本研究では,物理干渉に適応できないディープフェイクモデルを利用した新しいリアルタイムディープフェイク検出手法であるSFakeを提案する。
論文 参考訳(メタデータ) (2024-09-17T04:58:30Z) - DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - How Do Deepfakes Move? Motion Magnification for Deepfake Source
Detection [4.567475511774088]
顔の筋下運動に基づく一般化されたディープフェイク源検出器を構築した。
提案手法は実動作と増幅されたGAN指紋の違いを利用する。
我々は2つのマルチソースデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-12-28T18:59:21Z) - DeePhy: On Deepfake Phylogeny [58.01631614114075]
DeePhyは、新しいDeepfake Phylogenyデータセットである。
6つのディープフェイク検出アルゴリズムを用いて,DeePhyデータセットのベンチマークを示す。
論文 参考訳(メタデータ) (2022-09-19T15:30:33Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z) - How Do the Hearts of Deep Fakes Beat? Deep Fake Source Detection via
Interpreting Residuals with Biological Signals [9.918684475252636]
本研究では, 真偽を分離するだけでなく, 真偽の背後にある特定の生成モデルを発見するアプローチを提案する。
提案手法は,97.29%の精度で偽動画を検出でき,93.39%の精度でソースモデルを検出できることを示す。
論文 参考訳(メタデータ) (2020-08-26T03:35:47Z) - DeepFakes Evolution: Analysis of Facial Regions and Fake Detection
Performance [3.441021278275805]
本研究では,第1世代および第2世代DeepFakeの顔領域と偽検出性能を総合的に分析した。
我々は,第2世代の最新のDeepFakeデータベースにおいて,最先端のフェイクディテクターが達成した偽検出結果の貧弱さを強調した。
論文 参考訳(メタデータ) (2020-04-16T08:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。