論文の概要: Improving Fairness in Deepfake Detection
- arxiv url: http://arxiv.org/abs/2306.16635v3
- Date: Wed, 8 Nov 2023 17:10:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 19:39:15.085266
- Title: Improving Fairness in Deepfake Detection
- Title(参考訳): ディープフェイク検出の公平性向上
- Authors: Yan Ju, Shu Hu, Shan Jia, George H. Chen, Siwei Lyu
- Abstract要約: ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
- 参考スコア(独自算出の注目度): 38.999205139257164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the development of effective deepfake detectors in recent years,
recent studies have demonstrated that biases in the data used to train these
detectors can lead to disparities in detection accuracy across different races
and genders. This can result in different groups being unfairly targeted or
excluded from detection, allowing undetected deepfakes to manipulate public
opinion and erode trust in a deepfake detection model. While existing studies
have focused on evaluating fairness of deepfake detectors, to the best of our
knowledge, no method has been developed to encourage fairness in deepfake
detection at the algorithm level. In this work, we make the first attempt to
improve deepfake detection fairness by proposing novel loss functions that
handle both the setting where demographic information (eg, annotations of race
and gender) is available as well as the case where this information is absent.
Fundamentally, both approaches can be used to convert many existing deepfake
detectors into ones that encourages fairness. Extensive experiments on four
deepfake datasets and five deepfake detectors demonstrate the effectiveness and
flexibility of our approach in improving deepfake detection fairness. Our code
is available at https://github.com/littlejuyan/DF_Fairness.
- Abstract(参考訳): 近年、効果的なディープフェイク検出器が開発されているにもかかわらず、近年の研究では、これらの検出器の訓練に使用されるデータのバイアスが、異なる人種や性別における検出精度の差をもたらすことが示されている。
これにより、異なるグループが不当に標的にされ、検出から除外され、検出されていないディープフェイクが世論を操り、ディープフェイク検出モデルにおける信頼を損なうことができる。
既存の研究では、ディープフェイク検出の公平性を評価することに重点を置いているが、アルゴリズムレベルでディープフェイク検出の公平性を高める方法が開発されていない。
本研究では,人口統計情報(人種や性別の注釈など)が利用可能な設定と,この情報が存在しない場合の両方を扱う新たな損失関数を提案することで,ディープフェイク検出の公平性を改善する最初の試みを行う。
基本的に、両方のアプローチは、既存の多くのディープフェイク検出器を公正を奨励するものに変換するのに使うことができる。
4つのdeepfakeデータセットと5つのdeepfake検出器に関する広範な実験は、deepfake検出フェアネスを改善するためのアプローチの有効性と柔軟性を示しています。
私たちのコードはhttps://github.com/littlejuyan/df_fairnessで利用可能です。
関連論文リスト
- Deepfake Media Generation and Detection in the Generative AI Era: A Survey and Outlook [101.30779332427217]
本研究は,近年の現場開発を含むディープフェイク発生・検出技術について調査する。
偽コンテンツの変更や生成に使用する手順に従って,様々な種類のディープフェイクを識別する。
我々は,分布外コンテンツに基づくディープフェイク検出のための新しいマルチモーダル・ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-11-29T08:29:25Z) - DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の研究は、ある特定のデータセットで検出器をトレーニングし、他の一般的なディープフェイクデータセットでテストすることで、トップノーチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40の異なるディープフェイク技術からなるDF40という,高度に多様なディープフェイク検出データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - How Generalizable are Deepfake Image Detectors? An Empirical Study [4.42204674141385]
本研究は,ディープフェイク検出器の一般化性に関する最初の実証的研究である。
本研究では,6つのディープフェイクデータセット,5つのディープフェイク画像検出手法,および2つのモデル拡張アプローチを用いた。
検出器は, 合成法に特有の不要な特性を学習し, 識別的特徴の抽出に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-08-08T10:30:34Z) - Fooling State-of-the-Art Deepfake Detection with High-Quality Deepfakes [2.0883760606514934]
我々は、複数の研究データセットで証明されたディープフェイク検出器が、よく作られた偽物と現実世界のシナリオで未だに苦戦していることを示す。
我々は,90個の高品質のディープフェイクを生成するために,高度な顔ブレンディング技術とともに,顔交換のための新しいオートエンコーダを提案する。
論文 参考訳(メタデータ) (2023-05-09T09:08:49Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。