論文の概要: Improving Fairness in Deepfake Detection
- arxiv url: http://arxiv.org/abs/2306.16635v1
- Date: Thu, 29 Jun 2023 02:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:06:57.421777
- Title: Improving Fairness in Deepfake Detection
- Title(参考訳): ディープフェイク検出の公平性向上
- Authors: Yan Ju, Shu Hu, Shan Jia, George H. Chen, Siwei Lyu
- Abstract要約: ディープフェイク検出モデルの開発に使用するトレーニングデータのバイアスは、人口統計グループにとって不公平なパフォーマンスをもたらす可能性がある。
本研究では,人口統計要因を知らない,あるいは認識している方法で,公正な深度検出モデルを訓練するための新たな損失関数を提案する。
- 参考スコア(独自算出の注目度): 41.51057642433191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the development of effective deepfake detection models in recent
years, several recent studies have demonstrated that biases in the training
data utilized to develop deepfake detection models can lead to unfair
performance for demographic groups of different races and/or genders. Such can
result in these groups being unfairly targeted or excluded from detection,
allowing misclassified deepfakes to manipulate public opinion and erode trust
in the model. While these studies have focused on identifying and evaluating
the unfairness in deepfake detection, no methods have been developed to address
the fairness issue of deepfake detection at the algorithm level. In this work,
we make the first attempt to improve deepfake detection fairness by proposing
novel loss functions to train fair deepfake detection models in ways that are
agnostic or aware of demographic factors. Extensive experiments on four
deepfake datasets and five deepfake detectors demonstrate the effectiveness and
flexibility of our approach in improving the deepfake detection fairness.
- Abstract(参考訳): 近年の効果的なディープフェイク検出モデルの開発にもかかわらず、近年の研究では、ディープフェイク検出モデルの開発に使用されるトレーニングデータのバイアスが、異なる人種や性別の人口集団に対して不公平なパフォーマンスをもたらすことが示されている。
このような結果、これらのグループは不公平に標的にされ、または検出から除外され、分類されていないディープフェイクが世論を操り、モデルの信頼を損なうことができる。
これらの研究はディープフェイク検出における不公平さの同定と評価に重点を置いているが,アルゴリズムレベルでのディープフェイク検出の公平性問題に対処する手法は開発されていない。
そこで本研究では,新しい損失関数を提案すれば,人口統計学的要因を認識できない方法で,ディープフェイク検出モデルをトレーニングできるという,ディープフェイク検出フェアネスを改善する最初の試みを行う。
4つのdeepfakeデータセットと5つのdeepfake検出器に関する広範な実験は、deepfake検出フェアネスを改善するためのアプローチの有効性と柔軟性を示しています。
関連論文リスト
- DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の研究は、ある特定のデータセットで検出器をトレーニングし、他の一般的なディープフェイクデータセットでテストすることで、トップノーチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40の異なるディープフェイク技術からなるDF40という,高度に多様なディープフェイク検出データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - How Generalizable are Deepfake Image Detectors? An Empirical Study [4.42204674141385]
本研究は,ディープフェイク検出器の一般化性に関する最初の実証的研究である。
本研究では,6つのディープフェイクデータセット,5つのディープフェイク画像検出手法,および2つのモデル拡張アプローチを用いた。
検出器は, 合成法に特有の不要な特性を学習し, 識別的特徴の抽出に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-08-08T10:30:34Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - Fooling State-of-the-Art Deepfake Detection with High-Quality Deepfakes [2.0883760606514934]
我々は、複数の研究データセットで証明されたディープフェイク検出器が、よく作られた偽物と現実世界のシナリオで未だに苦戦していることを示す。
我々は,90個の高品質のディープフェイクを生成するために,高度な顔ブレンディング技術とともに,顔交換のための新しいオートエンコーダを提案する。
論文 参考訳(メタデータ) (2023-05-09T09:08:49Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。