論文の概要: DeepFake Detection with Inconsistent Head Poses: Reproducibility and
Analysis
- arxiv url: http://arxiv.org/abs/2108.12715v1
- Date: Sat, 28 Aug 2021 22:56:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:41:58.617057
- Title: DeepFake Detection with Inconsistent Head Poses: Reproducibility and
Analysis
- Title(参考訳): 不整合性頭部電位によるDeepFake検出:再現性と解析
- Authors: Kevin Lutz and Robert Bassett
- Abstract要約: 本稿では,ヘッドポーズ推定に基づく既存のDeepFake検出手法について分析する。
以上の結果から,DeepFake検出のためのアートパフォーマンスに対する現在の文献の認識を正すことができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Applications of deep learning to synthetic media generation allow the
creation of convincing forgeries, called DeepFakes, with limited technical
expertise. DeepFake detection is an increasingly active research area. In this
paper, we analyze an existing DeepFake detection technique based on head pose
estimation, which can be applied when fake images are generated with an
autoencoder-based face swap. Existing literature suggests that this method is
an effective DeepFake detector, and its motivating principles are attractively
simple. With an eye towards using these principles to develop new DeepFake
detectors, we conduct a reproducibility study of the existing method. We
conclude that its merits are dramatically overstated, despite its celebrated
status. By investigating this discrepancy we uncover a number of important and
generalizable insights related to facial landmark detection, identity-agnostic
head pose estimation, and algorithmic bias in DeepFake detectors. Our results
correct the current literature's perception of state of the art performance for
DeepFake detection.
- Abstract(参考訳): ディープラーニングの合成メディア生成への応用により、DeepFakesと呼ばれる説得力のある偽造物を作ることができる。
DeepFake検出は、ますます活発な研究分野である。
本稿では,自動エンコーダベースの顔スワップを用いて偽画像を生成する場合に適用可能な頭部位置推定に基づく既存のディープフェイク検出手法を分析する。
既存の文献では、この手法は有効なDeepFake検出器であり、その動機付け原理は魅力的に単純である。
これらの原理を新しいDeepFake検出器の開発に活用することを目的として,本手法の再現性の検討を行った。
我々は、その名声にもかかわらず、そのメリットは劇的に誇張されていると結論づける。
この差異を調べることで、deepfake検出器における顔のランドマーク検出、アイデンティティ非依存な頭部ポーズ推定、アルゴリズムバイアスに関する、多くの重要かつ一般化された洞察を明らかにする。
以上の結果から,DeepFake検出のためのアートパフォーマンスに対する現在の文献の認識を正すことができた。
関連論文リスト
- DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - GazeForensics: DeepFake Detection via Gaze-guided Spatial Inconsistency
Learning [63.547321642941974]
本稿では,3次元視線推定モデルから得られた視線表現を利用する,革新的なDeepFake検出手法であるGazeForensicsを紹介する。
実験の結果,提案したGazeForensicsは現在の最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-13T04:48:33Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Detecting and Recovering Sequential DeepFake Manipulation [32.34908534582532]
シークエンシャルディープフェイク制御(Seq-DeepFake)と呼ばれる新しい研究課題を提案する。
バイナリラベル予測のみを要求する既存のディープフェイク検出タスクとは異なり、Seq-DeepFakeでは、顔操作操作のシーケンシャルベクトルを正確に予測する必要がある。
我々は、この新たな研究課題に対して、包括的なベンチマークを構築し、厳密な評価プロトコルとメトリクスをセットアップする。
論文 参考訳(メタデータ) (2022-07-05T17:59:33Z) - The Familiarity Hypothesis: Explaining the Behavior of Deep Open Set
Methods [86.39044549664189]
特徴ベクトルデータに対する異常検出アルゴリズムは異常を外れ値として識別するが、外れ値検出はディープラーニングではうまく機能しない。
本論文は, 新規性の有無ではなく, 慣れ親しんだ特徴の欠如を検知しているため, これらの手法が成功するというFamiliarity仮説を提案する。
本論文は,親しみやすさの検出が表現学習の必然的な結果であるかどうかを論じる。
論文 参考訳(メタデータ) (2022-03-04T18:32:58Z) - Deepfake Detection for Facial Images with Facemasks [17.238556058316412]
フェイスマスクを用いたディープフェイクにおける最先端のディープフェイク検出モデルの性能を徹底的に評価した。
テマズクディープフェイク検出:顔パタンカードフェイスクロップの2つの手法を提案する。
論文 参考訳(メタデータ) (2022-02-23T09:01:27Z) - DeepFakes: Detecting Forged and Synthetic Media Content Using Machine
Learning [18.623444153774948]
この研究は、DeepFakeの生成と検出技術に関連する課題、研究動向、方向性を提示する。
この研究は、DeepFakeドメインにおける注目すべき研究をレビューし、今後より進歩したDeepFakeに対応する、より堅牢なアプローチの開発を促進する。
論文 参考訳(メタデータ) (2021-09-07T05:19:36Z) - Robust Face-Swap Detection Based on 3D Facial Shape Information [59.32489266682952]
顔のスワップ画像やビデオは、悪意ある攻撃者を惹きつけ、重要な人物の信用を損ねている。
以前のピクセルレベルのアーティファクトに基づく検出技術は、常に不明瞭なパターンにフォーカスするが、利用可能なセマンティックなヒントは無視する。
キーフィギュアの顔・スワップ検出のための外観・形状特徴をフル活用するための生体情報に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-04-28T09:35:48Z) - Countering Malicious DeepFakes: Survey, Battleground, and Horizon [17.153920019319603]
DeepFakeと呼ばれる深い生成的アプローチによる顔の外観の作成と操作は、大きな進歩を遂げました。
この新しい技術の邪悪な側面は、別の一般的な研究、すなわち本物のものから偽の顔を識別することを目的としたDeepFake検出を提示します。
コミュニティにおけるDeepFake関連の研究の急速な発展に伴い、双方(すなわちDeepFakeの生成と検出)は戦場の関係を形成している。
論文 参考訳(メタデータ) (2021-02-27T13:48:54Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。