論文の概要: Capture Artifacts via Progressive Disentangling and Purifying Blended Identities for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2410.10244v2
- Date: Tue, 15 Oct 2024 14:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 02:14:55.160040
- Title: Capture Artifacts via Progressive Disentangling and Purifying Blended Identities for Deepfake Detection
- Title(参考訳): ディープフェイク検出のためのプログレッシブディペンタングとブレンドIDの精製によるキャプチャーアーティファクト
- Authors: Weijie Zhou, Xiaoqing Luo, Zhancheng Zhang, Jiachen He, Xiaojun Wu,
- Abstract要約: ディープフェイク技術は、プライバシー侵害や信頼問題に深刻な懸念を抱いている。
現在の方法では、偽の顔をアーティファクトとコンテンツ情報に大まかに分けるために、切り離し技術を使用している。
これらの手法には固い絡み合いの基礎がなく、絡み合いの過程の信頼性を保証できない。
- 参考スコア(独自算出の注目度): 9.833101078121482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Deepfake technology has raised serious concerns regarding privacy breaches and trust issues. To tackle these challenges, Deepfake detection technology has emerged. Current methods over-rely on the global feature space, which contains redundant information independent of the artifacts. As a result, existing Deepfake detection techniques suffer performance degradation when encountering unknown datasets. To reduce information redundancy, the current methods use disentanglement techniques to roughly separate the fake faces into artifacts and content information. However, these methods lack a solid disentanglement foundation and cannot guarantee the reliability of their disentangling process. To address these issues, a Deepfake detection method based on progressive disentangling and purifying blended identities is innovatively proposed in this paper. Based on the artifact generation mechanism, the coarse- and fine-grained strategies are combined to ensure the reliability of the disentanglement method. Our method aims to more accurately capture and separate artifact features in fake faces. Specifically, we first perform the coarse-grained disentangling on fake faces to obtain a pair of blended identities that require no additional annotation to distinguish between source face and target face. Then, the artifact features from each identity are separated to achieve fine-grained disentanglement. To obtain pure identity information and artifacts, an Identity-Artifact Correlation Compression module (IACC) is designed based on the information bottleneck theory, effectively reducing the potential correlation between identity information and artifacts. Additionally, an Identity-Artifact Separation Contrast Loss is designed to enhance the independence of artifact features post-disentangling. Finally, the classifier only focuses on pure artifact features to achieve a generalized Deepfake detector.
- Abstract(参考訳): Deepfakeの技術は、プライバシー侵害や信頼問題に深刻な懸念を抱いている。
これらの課題に対処するため、ディープフェイク検出技術が登場した。
現在のメソッドは、アーティファクトに依存しない冗長な情報を含むグローバルな機能空間をオーバーレイに処理している。
その結果、既存のDeepfake検出技術では、未知のデータセットに遭遇するとパフォーマンスが低下する。
情報冗長性を低減するため、現在の手法では、偽の顔を大まかに切り離してアーティファクトとコンテンツ情報に分類する。
しかし、これらの手法には固い絡み合いの基礎がなく、絡み合いの過程の信頼性を保証できない。
これらの課題に対処するために, 進化的解離と混合IDの浄化に基づくディープフェイク検出手法を革新的に提案する。
アーティファクト生成機構に基づき、粗大な戦略と細粒度の戦略を組み合わせることにより、アンタングル化法の信頼性を確保する。
本手法は, 偽顔のアーチファクトの特徴をより正確に捉え, 分離することを目的としている。
具体的には、まず、偽の顔に粗い粗い不整合を行い、対象の顔と対象の顔とを区別するために追加のアノテーションを必要としない2つのブレンドIDを得る。
そして、各アイデンティティからのアーティファクト特徴を分離し、きめ細かなゆがみを実現する。
純粋なアイデンティティ情報とアーティファクトを得るため、情報ボトルネック理論に基づいてIACC(Identity-Artifact correlation Compression Module)を設計し、アイデンティティ情報とアーティファクト間の潜在的な相関を効果的に低減する。
さらに、Identity-Artifact Separation Contrast Lossは、識別後のアーティファクト機能の独立性を高めるように設計されている。
最後に、分類器は、一般化されたディープフェイク検出器を実現するために純粋なアーティファクト機能のみに焦点を当てる。
関連論文リスト
- DiffusionFake: Enhancing Generalization in Deepfake Detection via Guided Stable Diffusion [94.46904504076124]
ディープフェイク技術は、顔交換を極めて現実的にし、偽造された顔コンテンツの使用に対する懸念を高めている。
既存の方法は、顔操作の多様な性質のため、目に見えない領域に一般化するのに苦労することが多い。
顔偽造者の生成過程を逆転させて検出モデルの一般化を促進する新しいフレームワークであるDiffusionFakeを紹介する。
論文 参考訳(メタデータ) (2024-10-06T06:22:43Z) - Can We Leave Deepfake Data Behind in Training Deepfake Detector? [14.167267434669501]
ディープフェイクの検出におけるブレンドフェイクの役割を再考し、プロセスを「リアルからブレンドフェイクからディープフェイクへ」から段階的な移行へと定式化する。
我々の設計では、ブレンドフェイクとディープフェイクの両方から偽情報を効果的かつ包括的に活用することができる。
論文 参考訳(メタデータ) (2024-08-30T07:22:11Z) - DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Towards A Robust Deepfake Detector:Common Artifact Deepfake Detection
Model [14.308886041268973]
そこで本研究では,コモン・アーティファクト・ディープフェイク検出モデルという新しいディープフェイク検出手法を提案する。
共通アーティファクトの特徴を学習する上での大きな障害は、モデルがアイデンティティ表現機能によって容易に誤解されることである。
本手法は,Implicit Identity Leakageの影響を効果的に低減し,最先端技術よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-10-26T04:02:29Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Robust Face-Swap Detection Based on 3D Facial Shape Information [59.32489266682952]
顔のスワップ画像やビデオは、悪意ある攻撃者を惹きつけ、重要な人物の信用を損ねている。
以前のピクセルレベルのアーティファクトに基づく検出技術は、常に不明瞭なパターンにフォーカスするが、利用可能なセマンティックなヒントは無視する。
キーフィギュアの顔・スワップ検出のための外観・形状特徴をフル活用するための生体情報に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-04-28T09:35:48Z) - Identifying Invariant Texture Violation for Robust Deepfake Detection [17.306386179823576]
Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
論文 参考訳(メタデータ) (2020-12-19T03:02:15Z) - Identity-Driven DeepFake Detection [91.0504621868628]
アイデンティティ駆動のDeepFake Detectionは、被疑者画像/ビデオとターゲットのアイデンティティ情報を入力する。
被疑者画像・映像の同一性は対象人物と同一かという判断を出力する。
本稿では,新たな研究のベースラインとして,簡単な識別ベース検出アルゴリズムであるouterfaceを提案する。
論文 参考訳(メタデータ) (2020-12-07T18:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。