論文の概要: DFIL: Deepfake Incremental Learning by Exploiting Domain-invariant
Forgery Clues
- arxiv url: http://arxiv.org/abs/2309.09526v1
- Date: Mon, 18 Sep 2023 07:02:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 14:41:06.065539
- Title: DFIL: Deepfake Incremental Learning by Exploiting Domain-invariant
Forgery Clues
- Title(参考訳): dfil: domain-invariant forgery cluesを活用したdeepfakeインクリメンタル学習
- Authors: Kun Pan, Yin Yifang, Yao Wei, Feng Lin, Zhongjie Ba, Zhenguang Liu,
ZhiBo Wang, Lorenzo Cavallaro and Kui Ren
- Abstract要約: 現在のディープフェイク検出モデルは、大規模なデータセットでトレーニングすることで、一般的に偽画像を認識することができる。
検出モデルの精度は、データ分布の違いにより、新しいディープフェイク法によって生成された画像に対して著しく低下する。
本稿では,ディープフェイク検出モデルの一般化を改善するための新たなインクリメンタルラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 32.045504965382015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The malicious use and widespread dissemination of deepfake pose a significant
crisis of trust. Current deepfake detection models can generally recognize
forgery images by training on a large dataset. However, the accuracy of
detection models degrades significantly on images generated by new deepfake
methods due to the difference in data distribution. To tackle this issue, we
present a novel incremental learning framework that improves the generalization
of deepfake detection models by continual learning from a small number of new
samples. To cope with different data distributions, we propose to learn a
domain-invariant representation based on supervised contrastive learning,
preventing overfit to the insufficient new data. To mitigate catastrophic
forgetting, we regularize our model in both feature-level and label-level based
on a multi-perspective knowledge distillation approach. Finally, we propose to
select both central and hard representative samples to update the replay set,
which is beneficial for both domain-invariant representation learning and
rehearsal-based knowledge preserving. We conduct extensive experiments on four
benchmark datasets, obtaining the new state-of-the-art average forgetting rate
of 7.01 and average accuracy of 85.49 on FF++, DFDC-P, DFD, and CDF2. Our code
is released at https://github.com/DeepFakeIL/DFIL.
- Abstract(参考訳): 悪質な使用とディープフェイクの普及は、重大な信頼の危機を引き起こす。
現在のディープフェイク検出モデルは、大規模なデータセットでトレーニングすることで、一般的に偽造画像を認識することができる。
しかし, 検出モデルの精度は, データ分布の違いにより, 新たなディープフェイク法で生成した画像によって著しく低下する。
そこで本研究では,少数のサンプルから連続学習を行うことにより,深度検出モデルの一般化を向上する新たな漸進学習フレームワークを提案する。
異なるデータ分布に対処するために,教師付きコントラスト学習に基づくドメイン不変表現を学習し,不十分な新しいデータへの過剰適合を防止する。
破滅的な忘れを緩和するため,多視点の知識蒸留手法を用いて特徴レベルとラベルレベルの両方でモデルを正規化する。
最後に,リプレイセットを更新するために,中央代表とハード代表の両方を選択し,ドメイン不変表現学習とリハーサルベース知識保存の両方に有益である。
FF++,DFDC-P,DFD,CDF2の4つのベンチマークデータセットに対して,新しい最先端平均忘れ率7.01と平均精度85.49を得る。
私たちのコードはhttps://github.com/DeepFakeIL/DFILでリリースされています。
関連論文リスト
- DiffusionEngine: Diffusion Model is Scalable Data Engine for Object
Detection [41.436817746749384]
Diffusion Modelはオブジェクト検出のためのスケーラブルなデータエンジンである。
DiffusionEngine(DE)は、高品質な検出指向のトレーニングペアを単一のステージで提供する。
論文 参考訳(メタデータ) (2023-09-07T17:55:01Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Y-GAN: Learning Dual Data Representations for Efficient Anomaly
Detection [0.0]
本稿では,Y-GANと呼ばれる新しい再構成モデルを提案する。
モデルはY字型のオートエンコーダで構成され、2つの別々の潜在空間の画像を表現している。
論文 参考訳(メタデータ) (2021-09-28T20:17:04Z) - FReTAL: Generalizing Deepfake Detection using Knowledge Distillation and
Representation Learning [17.97648576135166]
本稿では,FreTAL(Feature Representation Transfer Adaptation Learning)法を提案する。
我々の学生モデルは、事前学習した教師モデルから知識を抽出することで、新しいタイプのディープフェイクに迅速に適応することができる。
FRETALは、ドメイン適応タスクのすべてのベースラインを86.97%の精度で低品質のディープフェイクで上回っている。
論文 参考訳(メタデータ) (2021-05-28T06:54:10Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Learning to Recognize Patch-Wise Consistency for Deepfake Detection [39.186451993950044]
パッチワイド一貫性学習(PCL)という,このタスクのための表現学習手法を提案する。
PCLは、画像のソース機能の一貫性を測定し、複数の偽造方法に対する優れた解釈性と堅牢性で表現することを学びます。
7つの一般的なDeepfake検出データセットに対するアプローチを評価します。
論文 参考訳(メタデータ) (2020-12-16T23:06:56Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。