論文の概要: Do DeepFake Attribution Models Generalize?
- arxiv url: http://arxiv.org/abs/2505.21520v1
- Date: Thu, 22 May 2025 13:49:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.117509
- Title: Do DeepFake Attribution Models Generalize?
- Title(参考訳): DeepFake属性モデルは一般化されるか?
- Authors: Spiros Baxavanakis, Manos Schinas, Symeon Papadopoulos,
- Abstract要約: 近年のDeepFake生成は,オープンソースツールの普及とともに,合成メディア作成の障壁を大幅に減らした。
本研究では、最先端の5つのバックボーンモデルを活用し、6つのDeepFakeデータセットにわたる広範な実験を行う。
その結果,バイナリモデルでは一般化能力が向上する一方で,大きなモデル,コントラスト手法,データ品質が向上し,帰属モデルの性能が向上することが示唆された。
- 参考スコア(独自算出の注目度): 8.198174674722067
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent advancements in DeepFake generation, along with the proliferation of open-source tools, have significantly lowered the barrier for creating synthetic media. This trend poses a serious threat to the integrity and authenticity of online information, undermining public trust in institutions and media. State-of-the-art research on DeepFake detection has primarily focused on binary detection models. A key limitation of these models is that they treat all manipulation techniques as equivalent, despite the fact that different methods introduce distinct artifacts and visual cues. Only a limited number of studies explore DeepFake attribution models, although such models are crucial in practical settings. By providing the specific manipulation method employed, these models could enhance both the perceived trustworthiness and explainability for end users. In this work, we leverage five state-of-the-art backbone models and conduct extensive experiments across six DeepFake datasets. First, we compare binary and multi-class models in terms of cross-dataset generalization. Second, we examine the accuracy of attribution models in detecting seen manipulation methods in unknown datasets, hence uncovering data distribution shifts on the same DeepFake manipulations. Last, we assess the effectiveness of contrastive methods in improving cross-dataset generalization performance. Our findings indicate that while binary models demonstrate better generalization abilities, larger models, contrastive methods, and higher data quality can lead to performance improvements in attribution models. The code of this work is available on GitHub.
- Abstract(参考訳): 近年のDeepFake生成は,オープンソースツールの普及とともに,合成メディア作成の障壁を大幅に減らした。
この傾向は、オンライン情報の完全性と信頼性に深刻な脅威をもたらし、機関やメディアに対する大衆の信頼を損なう。
DeepFake検出に関する最先端の研究は、主にバイナリ検出モデルに焦点を当てている。
これらのモデルの鍵となる制限は、異なる手法が異なるアーティファクトや視覚的手がかりを導入しているにもかかわらず、全ての操作テクニックを同等に扱うことである。
ごく少数の研究のみがDeepFakeの属性モデルを調査しているが、そのようなモデルは現実的な環境では不可欠である。
特定の操作方法を提供することで、エンドユーザーに対する信頼性と説明可能性の両方を高めることができる。
本研究では、最先端の5つのバックボーンモデルを活用し、6つのDeepFakeデータセットにわたる広範な実験を行う。
まず、クロスデータセットの一般化の観点から、バイナリモデルとマルチクラスモデルを比較する。
第二に、未知のデータセットにおける観測された操作方法の検出における属性モデルの精度について検討し、したがって同一のDeepFake操作におけるデータ分散シフトを明らかにする。
最後に,クロスデータセットの一般化性能向上におけるコントラスト手法の有効性を評価する。
その結果,バイナリモデルでは一般化能力が向上する一方で,大規模モデル,コントラスト手法,データ品質が向上し,帰属モデルの性能が向上することが示唆された。
この作業のコードはGitHubで公開されている。
関連論文リスト
- Standing on the Shoulders of Giants: Reprogramming Visual-Language Model for General Deepfake Detection [16.21235742118949]
本稿では,よく訓練された視覚言語モデル(VLM)を一般深度検出に活用する手法を提案する。
入力摂動によってモデル予測を操作するモデル再プログラミングパラダイムにより,本手法はトレーニング済みのVLMモデルを再プログラムすることができる。
いくつかの人気のあるベンチマークデータセットの実験では、ディープフェイク検出のクロスデータセットとクロスマニピュレーションのパフォーマンスが大幅に改善できることが示されている。
論文 参考訳(メタデータ) (2024-09-04T12:46:30Z) - Learning Defect Prediction from Unrealistic Data [57.53586547895278]
事前訓練されたコードのモデルは、コード理解と生成タスクに人気がある。
このようなモデルは大きい傾向があり、訓練データの総量を必要とする。
人工的に注入されたバグのある関数など、はるかに大きくてもより現実的なデータセットを持つモデルをトレーニングすることが一般的になった。
このようなデータで訓練されたモデルは、実際のプログラムでは性能が劣りながら、同様のデータでのみうまく機能する傾向にある。
論文 参考訳(メタデータ) (2023-11-02T01:51:43Z) - How Close are Other Computer Vision Tasks to Deepfake Detection? [42.79190870582115]
教師なしの方法でデータを分離するために,モデルの生容量を評価するための新しい測定手法「モデル分離可能性」を提案する。
分析の結果,事前学習した顔認識モデルは,他のモデルよりもディープフェイク検出と密接な関係があることが判明した。
自己教師型モデルは最高の結果をもたらすが、過度に適合するリスクがある。
論文 参考訳(メタデータ) (2023-10-02T06:32:35Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Improving Generalization for Multimodal Fake News Detection [8.595270610973586]
最先端のアプローチは通常、小さなサイズのデータセットや特定のトピックの限定セットでトレーニングされる。
本稿では,マルチモーダルフェイクニュース検出のために,最先端のマルチモーダルトランスを採用した3つのモデルを提案する。
論文 参考訳(メタデータ) (2023-05-29T20:32:22Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Model Attribution of Face-swap Deepfake Videos [39.771800841412414]
まず、いくつかのAutoencoderモデルに基づいて、DeepFakes from Different Models (DFDM)を用いた新しいデータセットを導入する。
具体的には、エンコーダ、デコーダ、中間層、入力解像度、圧縮比の5つの世代モデルを用いて、合計6450のDeepfakeビデオを生成する。
我々は,Deepfakesモデルの属性を多クラス分類タスクとして捉え,Deepfakes間の差異を探索するための空間的・時間的注意に基づく手法を提案する。
論文 参考訳(メタデータ) (2022-02-25T20:05:18Z) - TAR: Generalized Forensic Framework to Detect Deepfakes using Weakly
Supervised Learning [17.40885531847159]
ディープフェイクは重要な社会問題となり、それらを検出することが非常に重要です。
本研究では,異なる種類のディープフェイクを同時に検出する実用的なデジタル鑑識ツールを提案する。
レジデンシャルブロックを用いた自動エンコーダベースの検出モデルを開発し、異なる種類のディープフェイクを同時に検出する転送学習を順次実施します。
論文 参考訳(メタデータ) (2021-05-13T07:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。