論文の概要: Improving Fairness in Deepfake Detection
- arxiv url: http://arxiv.org/abs/2306.16635v3
- Date: Wed, 8 Nov 2023 17:10:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 19:39:15.085266
- Title: Improving Fairness in Deepfake Detection
- Title(参考訳): ディープフェイク検出の公平性向上
- Authors: Yan Ju, Shu Hu, Shan Jia, George H. Chen, Siwei Lyu
- Abstract要約: ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
- 参考スコア(独自算出の注目度): 38.999205139257164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the development of effective deepfake detectors in recent years,
recent studies have demonstrated that biases in the data used to train these
detectors can lead to disparities in detection accuracy across different races
and genders. This can result in different groups being unfairly targeted or
excluded from detection, allowing undetected deepfakes to manipulate public
opinion and erode trust in a deepfake detection model. While existing studies
have focused on evaluating fairness of deepfake detectors, to the best of our
knowledge, no method has been developed to encourage fairness in deepfake
detection at the algorithm level. In this work, we make the first attempt to
improve deepfake detection fairness by proposing novel loss functions that
handle both the setting where demographic information (eg, annotations of race
and gender) is available as well as the case where this information is absent.
Fundamentally, both approaches can be used to convert many existing deepfake
detectors into ones that encourages fairness. Extensive experiments on four
deepfake datasets and five deepfake detectors demonstrate the effectiveness and
flexibility of our approach in improving deepfake detection fairness. Our code
is available at https://github.com/littlejuyan/DF_Fairness.
- Abstract(参考訳): 近年、効果的なディープフェイク検出器が開発されているにもかかわらず、近年の研究では、これらの検出器の訓練に使用されるデータのバイアスが、異なる人種や性別における検出精度の差をもたらすことが示されている。
これにより、異なるグループが不当に標的にされ、検出から除外され、検出されていないディープフェイクが世論を操り、ディープフェイク検出モデルにおける信頼を損なうことができる。
既存の研究では、ディープフェイク検出の公平性を評価することに重点を置いているが、アルゴリズムレベルでディープフェイク検出の公平性を高める方法が開発されていない。
本研究では,人口統計情報(人種や性別の注釈など)が利用可能な設定と,この情報が存在しない場合の両方を扱う新たな損失関数を提案することで,ディープフェイク検出の公平性を改善する最初の試みを行う。
基本的に、両方のアプローチは、既存の多くのディープフェイク検出器を公正を奨励するものに変換するのに使うことができる。
4つのdeepfakeデータセットと5つのdeepfake検出器に関する広範な実験は、deepfake検出フェアネスを改善するためのアプローチの有効性と柔軟性を示しています。
私たちのコードはhttps://github.com/littlejuyan/df_fairnessで利用可能です。
関連論文リスト
- Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - Unsupervised Multimodal Deepfake Detection Using Intra- and Cross-Modal
Inconsistencies [16.015769274959098]
ディープフェイクビデオは、刑事司法、民主主義、個人の安全とプライバシーに悪影響を及ぼす可能性のある社会への脅威が増えていることを示している。
本稿では,内部および相互の整合性を測定することによって,ディープフェイク映像を非教師的に検出する手法を提案する。
提案手法は広範囲な実験により検証され,ディープフェイクビデオにおける重要な内的および横断的不整合の存在が実証された。
論文 参考訳(メタデータ) (2023-11-28T03:28:19Z) - Facial Forgery-based Deepfake Detection using Fine-Grained Features [7.378937711027777]
ディープフェイクによる顔の偽造は、大きなセキュリティリスクを引き起こし、深刻な社会的懸念を引き起こしている。
我々は,詳細な分類問題としてディープフェイク検出を定式化し,それに対する新たなきめ細かな解を提案する。
本手法は, 背景雑音を効果的に抑制し, 様々なスケールの識別特徴を学習することにより, 微妙で一般化可能な特徴を学習し, 深度検出を行う。
論文 参考訳(メタデータ) (2023-10-10T21:30:05Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - How Generalizable are Deepfake Detectors? An Empirical Study [5.380277044998179]
本研究は,ディープフェイク検出器の一般化性に関する最初の実証的研究である。
本研究は,6つのディープフェイクデータセット,5つのディープフェイク検出方法,および2つのモデル拡張アプローチを用いた。
論文 参考訳(メタデータ) (2023-08-08T10:30:34Z) - DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection [55.70982767084996]
ディープフェイク検出の分野で見落とされがちな課題は、標準化され、統一され、包括的なベンチマークがないことである。
DeepfakeBenchと呼ばれる,3つの重要なコントリビューションを提供するディープフェイク検出のための,最初の包括的なベンチマークを提示する。
DeepfakeBenchには15の最先端検出方法、9CLデータセット、一連のDeepfake検出評価プロトコルと分析ツール、包括的な評価ツールが含まれている。
論文 参考訳(メタデータ) (2023-07-04T01:34:41Z) - Fooling State-of-the-Art Deepfake Detection with High-Quality Deepfakes [2.0883760606514934]
我々は、複数の研究データセットで証明されたディープフェイク検出器が、よく作られた偽物と現実世界のシナリオで未だに苦戦していることを示す。
我々は,90個の高品質のディープフェイクを生成するために,高度な顔ブレンディング技術とともに,顔交換のための新しいオートエンコーダを提案する。
論文 参考訳(メタデータ) (2023-05-09T09:08:49Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Multi-attentional Deepfake Detection [79.80308897734491]
ディープフェイクによる顔の偽造はインターネットに広まり、深刻な社会的懸念を引き起こしている。
新たなマルチアテンテーショナルディープフェイク検出ネットワークを提案する。
具体的には,1)ネットワークを異なる局所的部分へ配置するための複数の空間的注意ヘッド,2)浅い特徴の微妙なアーティファクトをズームするテクスチャ的特徴拡張ブロック,3)低レベルなテクスチャ特徴と高レベルなセマンティクス特徴をアグリゲートする,の3つの構成要素からなる。
論文 参考訳(メタデータ) (2021-03-03T13:56:14Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [73.61769046989258]
近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
ディープフェイクに対する有望な対策はディープフェイク検出です。
deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介します。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。