論文の概要: A Quality-Centric Framework for Generic Deepfake Detection
- arxiv url: http://arxiv.org/abs/2411.05335v1
- Date: Fri, 08 Nov 2024 05:14:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:55:42.394490
- Title: A Quality-Centric Framework for Generic Deepfake Detection
- Title(参考訳): ジェネリックディープフェイク検出のための品質中心フレームワーク
- Authors: Wentang Song, Zhiyuan Yan, Yuzhen Lin, Taiping Yao, Changsheng Chen, Shen Chen, Yandan Zhao, Shouhong Ding, Bin Li,
- Abstract要約: 異なるディープフェイクの偽造の質は様々である。 容易に認識できる偽造の手がかりを持つものもあれば、 非常に現実的なものもある。
既存の研究はしばしば、様々な偽造品の品質を持つディープフェイクの混合で検出器を訓練し、検出器は低品質の偽造品サンプルから容易に発見できるアーティファクトをショートカットする。
本稿では,品質評価器,低品質データ拡張モジュール,学習ペーシング戦略からなる,汎用的なディープフェイク検出のための新しい品質中心のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.1730636042585
- License:
- Abstract: This paper addresses the generalization issue in deepfake detection by harnessing forgery quality in training data. Generally, the forgery quality of different deepfakes varies: some have easily recognizable forgery clues, while others are highly realistic. Existing works often train detectors on a mix of deepfakes with varying forgery qualities, potentially leading detectors to short-cut the easy-to-spot artifacts from low-quality forgery samples, thereby hurting generalization performance. To tackle this issue, we propose a novel quality-centric framework for generic deepfake detection, which is composed of a Quality Evaluator, a low-quality data enhancement module, and a learning pacing strategy that explicitly incorporates forgery quality into the training process. The framework is inspired by curriculum learning, which is designed to gradually enable the detector to learn more challenging deepfake samples, starting with easier samples and progressing to more realistic ones. We employ both static and dynamic assessments to assess the forgery quality, combining their scores to produce a final rating for each training sample. The rating score guides the selection of deepfake samples for training, with higher-rated samples having a higher probability of being chosen. Furthermore, we propose a novel frequency data augmentation method specifically designed for low-quality forgery samples, which helps to reduce obvious forgery traces and improve their overall realism. Extensive experiments show that our method can be applied in a plug-and-play manner and significantly enhance the generalization performance.
- Abstract(参考訳): 本稿では,トレーニングデータにおける偽造品質を利用したディープフェイク検出における一般化問題に対処する。
一般的に、異なるディープフェイクの偽造品質は、容易に認識できる偽造の手がかりを持つものもあれば、非常に現実的なものもある。
既存の研究はしばしば、様々な偽造品品質のディープフェイクで検出器を訓練し、低品質の偽造品サンプルから容易に発見できるアーティファクトをショートカットし、一般化性能を損なう可能性がある。
そこで本研究では,品質評価器と低品質データ拡張モジュールと,偽造品質をトレーニングプロセスに明示的に組み込む学習ペーシング戦略からなる,汎用的なディープフェイク検出のための新しい品質中心のフレームワークを提案する。
このフレームワークはカリキュラムの学習にインスパイアされ、ディテクターがより難しいディープフェイクサンプルを、より簡単なサンプルから始まり、より現実的なサンプルへと、徐々に学習できるように設計されている。
静的評価と動的評価を併用して,各トレーニングサンプルの最終的な評価結果を生成する。
評価スコアは、トレーニングのためのディープフェイクサンプルの選択をガイドし、高い評価サンプルが選択される確率が高い。
さらに,低品質な偽造サンプルに特化して設計された新しい周波数データ拡張手法を提案する。
大規模な実験により,本手法をプラグアンドプレイ方式で適用し,一般化性能を大幅に向上できることが示された。
関連論文リスト
- Towards General Deepfake Detection with Dynamic Curriculum [4.622705420257596]
本稿では,カリキュラム学習パラダイムを用いたディープフェイク検出器のトレーニングにサンプル硬さを導入することを提案する。
我々は,このモデルがトレーニング中に徐々にハードサンプルに焦点をあてる,新しい単純かつ効果的な戦略である動的顔面法学カリキュラム(DFFC)を提示する。
総合的な実験により,DFFCは各種のエンド・ツー・エンドディープフェイク検出器の内・クロス・データセット性能を向上できることが示された。
論文 参考訳(メタデータ) (2024-10-15T00:58:09Z) - Fake It till You Make It: Curricular Dynamic Forgery Augmentations towards General Deepfake Detection [15.857961926916465]
我々は,textbfCurricular textbfDynamic textbfForgery textbfAugmentation (CDFA)と呼ばれる新しいディープフェイク検出法を提案する。
CDFAは、偽造拡張ポリシーネットワークでディープフェイク検出器を共同で訓練する。
そこで本研究では,CDFAが各種難燃性ディープフェイク検出器のクロスデータセットおよびクロスマニピュレーション性能を著しく向上できることを示す。
論文 参考訳(メタデータ) (2024-09-22T13:51:22Z) - Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - Quality-Agnostic Deepfake Detection with Intra-model Collaborative
Learning [26.517887637150594]
Deepfakeは最近、セキュリティ上の脅威と偽情報の拡散に関して、多くの社会的懸念を提起した。
多くのSOTAアプローチは、特定のディープフェイクビデオ品質タイプを検出するために単一の特定モデルを使用することによって制限される。
本研究では,異なる品質のディープフェイクを効果的かつ同時検出できる汎用的なモデル内協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-12T02:01:31Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - A Novel Framework for Assessment of Learning-based Detectors in
Realistic Conditions with Application to Deepfake Detection [11.287342793740876]
本稿では,より現実的な状況下での学習ベース検出器の性能を評価するための厳密な枠組みを提案する。
評価結果に触発されて、自然な画像劣化プロセスに基づくデータ拡張戦略を設計する。
論文 参考訳(メタデータ) (2022-03-22T15:03:56Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - CSI: Novelty Detection via Contrastive Learning on Distributionally
Shifted Instances [77.28192419848901]
コントラストシフトインスタンス (CSI) という,単純かつ効果的な手法を提案する。
従来のコントラスト学習法のように,サンプルを他の例と対比することに加えて,本トレーニング手法では,サンプルを分散シフトによる拡張と対比する。
本実験は, 種々の新規検出シナリオにおける本手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-07-16T08:32:56Z) - Minority Class Oversampling for Tabular Data with Deep Generative Models [4.976007156860967]
オーバーサンプリングによる非バランスな分類タスクの性能向上を図るために, 深層生成モデルを用いて現実的なサンプルを提供する能力について検討した。
実験の結果,サンプリング手法は品質に影響を与えないが,実行環境は様々であることがわかった。
また、性能指標の点でも改善が重要であるが、絶対的な点では小さな点がしばしば見られる。
論文 参考訳(メタデータ) (2020-05-07T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。