論文の概要: Rethinking Individual Fairness in Deepfake Detection
- arxiv url: http://arxiv.org/abs/2507.14326v2
- Date: Wed, 30 Jul 2025 09:45:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 14:05:51.361828
- Title: Rethinking Individual Fairness in Deepfake Detection
- Title(参考訳): ディープフェイク検出における個人の公正性の再考
- Authors: Aryana Hou, Li Lin, Justin Li, Shu Hu,
- Abstract要約: 生成可能なAIモデルは、合成メディアのリアリズムを大幅に改善してきたが、洗練されたDeepFakeによるその誤用は重大なリスクをもたらしている。
近年のディープフェイク検出の進歩にもかかわらず、フェアネスは未解決のままであり、ディープフェイクマーカーは特定の集団に対するバイアスを活用できる。
本稿では,個別の公正性と一般化を高めるため,既存のディープフェイク検出器に組み込むことができる最初の一般化可能なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.926090411049054
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative AI models have substantially improved the realism of synthetic media, yet their misuse through sophisticated DeepFakes poses significant risks. Despite recent advances in deepfake detection, fairness remains inadequately addressed, enabling deepfake markers to exploit biases against specific populations. While previous studies have emphasized group-level fairness, individual fairness (i.e., ensuring similar predictions for similar individuals) remains largely unexplored. In this work, we identify for the first time that the original principle of individual fairness fundamentally fails in the context of deepfake detection, revealing a critical gap previously unexplored in the literature. To mitigate it, we propose the first generalizable framework that can be integrated into existing deepfake detectors to enhance individual fairness and generalization. Extensive experiments conducted on leading deepfake datasets demonstrate that our approach significantly improves individual fairness while maintaining robust detection performance, outperforming state-of-the-art methods. The code is available at https://github.com/Purdue-M2/Individual-Fairness-Deepfake-Detection.
- Abstract(参考訳): 生成可能なAIモデルは、合成メディアのリアリズムを大幅に改善してきたが、洗練されたDeepFakeによるその誤用は重大なリスクをもたらしている。
近年のディープフェイク検出の進歩にもかかわらず、フェアネスは未解決のままであり、ディープフェイクマーカーは特定の集団に対するバイアスを活用できる。
以前の研究では、グループレベルの公平さを強調していたが、個々の公正さ(例えば、類似した個人に対する同様の予測を保証すること)はほとんど未発見のままである。
本研究では, 個別の公正性の本来の原理が, ディープフェイク検出の文脈で基本的に失敗し, 文献に未発見の限界が明らかとなった。
そこで本研究では,既存のディープフェイク検出器に組み込んで,個別の公正性と一般化を向上する,初の一般化可能なフレームワークを提案する。
先行するディープフェイクデータセットに対する大規模な実験により、我々のアプローチは、堅牢な検出性能を維持しながら、個々のフェアネスを著しく改善し、最先端の手法よりも優れた結果が得られた。
コードはhttps://github.com/Purdue-M2/Individual-Fairness-Deepfake-Detectionで公開されている。
関連論文リスト
- Fair-FLIP: Fair Deepfake Detection with Fairness-Oriented Final Layer Input Prioritising [1.3348326328808557]
ディープフェイク検出法は、民族や性別などの人口特性に偏りを示すことが多い。
フェアネス指向ファイナルレイヤ入力優先順位付け(Fair-FLIP)と呼ばれる新しい後処理手法を提案する。
また,Fair-FLIPは,基準値の精度を維持しつつ,最大30%の公正度を向上できることを示した。
論文 参考訳(メタデータ) (2025-07-11T15:17:02Z) - Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - GazeForensics: DeepFake Detection via Gaze-guided Spatial Inconsistency
Learning [63.547321642941974]
本稿では,3次元視線推定モデルから得られた視線表現を利用する,革新的なDeepFake検出手法であるGazeForensicsを紹介する。
実験の結果,提案したGazeForensicsは現在の最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-13T04:48:33Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。