論文の概要: Towards A Robust Deepfake Detector:Common Artifact Deepfake Detection
Model
- arxiv url: http://arxiv.org/abs/2210.14457v1
- Date: Wed, 26 Oct 2022 04:02:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 14:49:17.551708
- Title: Towards A Robust Deepfake Detector:Common Artifact Deepfake Detection
Model
- Title(参考訳): 頑健なディープフェイク検出器に向けて:共通アーティファクトディープフェイク検出モデル
- Authors: Shichao Dong, Jin Wang, Renhe Ji, Jiajun Liang, Haoqiang Fan and Zheng
Ge
- Abstract要約: そこで本研究では,コモン・アーティファクト・ディープフェイク検出モデルという新しいディープフェイク検出手法を提案する。
共通アーティファクトの特徴を学習する上での大きな障害は、モデルがアイデンティティ表現機能によって容易に誤解されることである。
本手法は,Implicit Identity Leakageの影響を効果的に低減し,最先端技術よりも大きなマージンで性能を向上する。
- 参考スコア(独自算出の注目度): 14.308886041268973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deepfake detection methods perform poorly on face forgeries
generated by unseen face manipulation algorithms. The generalization ability of
previous methods is mainly improved by modeling hand-crafted artifact features.
Such properties, on the other hand, impede their further improvement. In this
paper, we propose a novel deepfake detection method named Common Artifact
Deepfake Detection Model, which aims to learn common artifact features in
different face manipulation algorithms. To this end, we find that the main
obstacle to learning common artifact features is that models are easily misled
by the identity representation feature. We call this phenomenon Implicit
Identity Leakage (IIL). Extensive experimental results demonstrate that, by
learning the binary classifiers with the guidance of the Artifact Detection
Module, our method effectively reduces the influence of IIL and outperforms the
state-of-the-art by a large margin, proving that hand-crafted artifact feature
detectors are not indispensable when tackling deepfake problems.
- Abstract(参考訳): 既存のディープフェイク検出手法は、顔操作アルゴリズムによって生成された顔の偽造が不十分である。
従来手法の一般化能力は手作りアーティファクトの特徴をモデル化することによって改善されている。
一方、このような性質はさらなる改善を妨げている。
本稿では,異なる顔操作アルゴリズムにおいて,共通の人工物の特徴を学習することを目的とした,新しいディープフェイク検出手法であるCommon Artifact Deepfake Detection Modelを提案する。
この目的のために、共通アーティファクトの特徴を学習する主な障害は、モデルが識別表現機能によって容易に誤解されることである。
この現象をIIL(Implicit Identity Leakage)と呼ぶ。
本手法は,アーティファクト検出モジュールの誘導により2値分類器を学習することにより,IILの影響を効果的に低減し,手作りの工芸品特徴検出器がディープフェイク問題に対処するには不可欠ではないことを示す。
関連論文リスト
- Capture Artifacts via Progressive Disentangling and Purifying Blended Identities for Deepfake Detection [9.833101078121482]
ディープフェイク技術は、プライバシー侵害や信頼問題に深刻な懸念を抱いている。
現在の方法では、偽の顔をアーティファクトとコンテンツ情報に大まかに分けるために、切り離し技術を使用している。
これらの手法には固い絡み合いの基礎がなく、絡み合いの過程の信頼性を保証できない。
論文 参考訳(メタデータ) (2024-10-14T08:04:37Z) - DiffusionFake: Enhancing Generalization in Deepfake Detection via Guided Stable Diffusion [94.46904504076124]
ディープフェイク技術は、顔交換を極めて現実的にし、偽造された顔コンテンツの使用に対する懸念を高めている。
既存の方法は、顔操作の多様な性質のため、目に見えない領域に一般化するのに苦労することが多い。
顔偽造者の生成過程を逆転させて検出モデルの一般化を促進する新しいフレームワークであるDiffusionFakeを紹介する。
論文 参考訳(メタデータ) (2024-10-06T06:22:43Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning [0.0]
ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
論文 参考訳(メタデータ) (2024-02-06T11:35:05Z) - Masked Conditional Diffusion Model for Enhancing Deepfake Detection [20.018495944984355]
本研究では,深度検出のための仮設条件拡散モデル (MCDM) を提案する。
マスクされたプリスタン顔から様々な偽造顔を生成し、ディープフェイク検出モデルにジェネリックでロバストな表現を学習するよう促す。
論文 参考訳(メタデータ) (2024-02-01T12:06:55Z) - Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Real Face Foundation Representation Learning for Generalized Deepfake
Detection [74.4691295738097]
ディープフェイク技術の出現は、個人のプライバシーと公共の安全に脅威をもたらすため、社会的な問題となっている。
十分な偽の顔を集めることはほぼ不可能であり、既存の検出器があらゆる種類の操作に一般化することは困難である。
本稿では,大規模な実顔データセットから一般表現を学習することを目的としたリアルフェイスファウンデーション表現学習(RFFR)を提案する。
論文 参考訳(メタデータ) (2023-03-15T08:27:56Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - VideoForensicsHQ: Detecting High-quality Manipulated Face Videos [77.60295082172098]
偽造検知器の性能は、人間の目で見られる人工物の存在にどのように依存するかを示す。
前例のない品質の顔ビデオ偽造検出のための新しいベンチマークデータセットを導入する。
論文 参考訳(メタデータ) (2020-05-20T21:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。