論文の概要: How Generalizable are Deepfake Detectors? An Empirical Study
- arxiv url: http://arxiv.org/abs/2308.04177v1
- Date: Tue, 8 Aug 2023 10:30:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 13:15:57.674778
- Title: How Generalizable are Deepfake Detectors? An Empirical Study
- Title(参考訳): ディープフェイク検出器はどの程度一般化可能か?
実証的研究
- Authors: Boquan Li, Jun Sun, Christopher M. Poskitt
- Abstract要約: 本研究は,ディープフェイク検出器の一般化性に関する最初の実証的研究である。
本研究は,6つのディープフェイクデータセット,5つのディープフェイク検出方法,および2つのモデル拡張アプローチを用いた。
- 参考スコア(独自算出の注目度): 5.380277044998179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake videos and images are becoming increasingly credible, posing a
significant threat given their potential to facilitate fraud or bypass access
control systems. This has motivated the development of deepfake detection
methods, in which deep learning models are trained to distinguish between real
and synthesized footage. Unfortunately, existing detection models struggle to
generalize to deepfakes from datasets they were not trained on, but little work
has been done to examine why or how this limitation can be addressed. In this
paper, we present the first empirical study on the generalizability of deepfake
detectors, an essential goal for detectors to stay one step ahead of attackers.
Our study utilizes six deepfake datasets, five deepfake detection methods, and
two model augmentation approaches, confirming that detectors do not generalize
in zero-shot settings. Additionally, we find that detectors are learning
unwanted properties specific to synthesis methods and struggling to extract
discriminative features, limiting their ability to generalize. Finally, we find
that there are neurons universally contributing to detection across seen and
unseen datasets, illuminating a possible path forward to zero-shot
generalizability.
- Abstract(参考訳): ディープフェイクビデオや画像はますます信頼性が高くなり、詐欺やバイパスアクセス制御システムを促進する可能性から、大きな脅威となっている。
これはディープフェイク検出法の開発を動機付けており、ディープラーニングモデルは実写映像と合成映像を区別するために訓練されている。
残念ながら、既存の検出モデルは、トレーニングされていないデータセットのディープフェイクを一般化するのに苦労するが、なぜこの制限に対処できるのかを調査する作業はほとんど行われていない。
本稿では,ディープフェイク検出器の汎用性に関する最初の実証的研究について述べる。
本研究では,6つのdeepfakeデータセット,5つのdeepfake検出手法,および2つのモデル拡張手法を用いて,ゼロショット設定では検出器が一般化しないことを確認した。
さらに, 検出器は, 合成法に特有の不要な特性を学習し, 識別的特徴の抽出に苦慮し, 一般化能力に限界があることが判明した。
最後に、見えないデータセットをまたいで検出に普遍的に寄与するニューロンが存在することを見出し、ゼロショット一般化可能性への道筋を照明する。
関連論文リスト
- DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の作業では、ある特定のデータセット(例えばFF++)上で検出器をトレーニングし、他の一般的なディープフェイクデータセットでそれらをテストすることで、トップノッチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40種類の異なるディープフェイク技術からなるDF40という,高度に多様な大規模ディープフェイクデータセットを構築した。
次に,4つの標準評価プロトコルと7つの代表検出器を用いて総合評価を行い,2000以上の評価を行った。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - Unsupervised Multimodal Deepfake Detection Using Intra- and Cross-Modal Inconsistencies [14.660707087391463]
ディープフェイクビデオは、刑事司法、民主主義、個人の安全とプライバシーに悪影響を及ぼす可能性のある社会への脅威が増えていることを示している。
本稿では,ビデオセグメント間のモーダル内およびモーダル間不整合を直接同定することで,ディープフェイク動画を検出する新しい教師なし手法を提案する。
提案手法は,FakeAVCelebデータセットを用いた非教師なしディープフェイク検出手法よりも優れていた。
論文 参考訳(メタデータ) (2023-11-28T03:28:19Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z) - Fooling State-of-the-Art Deepfake Detection with High-Quality Deepfakes [2.0883760606514934]
我々は、複数の研究データセットで証明されたディープフェイク検出器が、よく作られた偽物と現実世界のシナリオで未だに苦戦していることを示す。
我々は,90個の高品質のディープフェイクを生成するために,高度な顔ブレンディング技術とともに,顔交換のための新しいオートエンコーダを提案する。
論文 参考訳(メタデータ) (2023-05-09T09:08:49Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Finding Facial Forgery Artifacts with Parts-Based Detectors [73.08584805913813]
顔の個々の部分に焦点を絞った一連の偽造検知システムを設計する。
これらの検出器を用いて、FaceForensics++、Celeb-DF、Facebook Deepfake Detection Challengeデータセットの詳細な実験分析を行う。
論文 参考訳(メタデータ) (2021-09-21T16:18:45Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - TAR: Generalized Forensic Framework to Detect Deepfakes using Weakly
Supervised Learning [17.40885531847159]
ディープフェイクは重要な社会問題となり、それらを検出することが非常に重要です。
本研究では,異なる種類のディープフェイクを同時に検出する実用的なデジタル鑑識ツールを提案する。
レジデンシャルブロックを用いた自動エンコーダベースの検出モデルを開発し、異なる種類のディープフェイクを同時に検出する転送学習を順次実施します。
論文 参考訳(メタデータ) (2021-05-13T07:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。