論文の概要: GBDF: Gender Balanced DeepFake Dataset Towards Fair DeepFake Detection
- arxiv url: http://arxiv.org/abs/2207.10246v1
- Date: Thu, 21 Jul 2022 01:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:14:27.785441
- Title: GBDF: Gender Balanced DeepFake Dataset Towards Fair DeepFake Detection
- Title(参考訳): GBDF: 公平なディープフェイク検出を目指すジェンダーバランスのDeepFakeデータセット
- Authors: Aakash Varma Nadimpalli and Ajita Rattani
- Abstract要約: ディープフェイクによる顔の偽造は、深刻な社会的懸念を引き起こしている。
近年の研究では、顔分析に基づくディープラーニングモデルが保護属性に基づいて識別できることが示されている。
ディープフェイク検知器の評価と理解は、性別や人種などの人口動態にまたがって必要不可欠である。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial forgery by deepfakes has raised severe societal concerns. Several
solutions have been proposed by the vision community to effectively combat the
misinformation on the internet via automated deepfake detection systems. Recent
studies have demonstrated that facial analysis-based deep learning models can
discriminate based on protected attributes. For the commercial adoption and
massive roll-out of the deepfake detection technology, it is vital to evaluate
and understand the fairness (the absence of any prejudice or favoritism) of
deepfake detectors across demographic variations such as gender and race. As
the performance differential of deepfake detectors between demographic
subgroups would impact millions of people of the deprived sub-group. This paper
aims to evaluate the fairness of the deepfake detectors across males and
females. However, existing deepfake datasets are not annotated with demographic
labels to facilitate fairness analysis. To this aim, we manually annotated
existing popular deepfake datasets with gender labels and evaluated the
performance differential of current deepfake detectors across gender. Our
analysis on the gender-labeled version of the datasets suggests (a) current
deepfake datasets have skewed distribution across gender, and (b) commonly
adopted deepfake detectors obtain unequal performance across gender with mostly
males outperforming females. Finally, we contributed a gender-balanced and
annotated deepfake dataset, GBDF, to mitigate the performance differential and
to promote research and development towards fairness-aware deep fake detectors.
The GBDF dataset is publicly available at: https://github.com/aakash4305/GBDF
- Abstract(参考訳): ディープフェイクによる顔の偽造は社会の深刻な懸念を引き起こした。
ビジョンコミュニティは、自動ディープフェイク検出システムを通じてインターネット上の誤情報を効果的に対処するためのいくつかのソリューションを提案している。
近年の研究では、顔分析に基づくディープラーニングモデルが保護属性に基づいて識別できることが示されている。
ディープフェイク検出技術の商業的採用と大規模展開のためには、性別や人種などの人口動態の異なるディープフェイク検出装置の公正性(偏見や好意の欠如)を評価し、理解することが不可欠である。
人口集団間のディープフェイク検出器の性能差は、奪われたサブグループの何百万人もの人々に影響を及ぼすだろう。
本稿では,男女間におけるディープフェイク検出器の公平性を評価することを目的とした。
しかし、既存のdeepfakeデータセットは、フェアネス分析を容易にするために、人口統計ラベルに注釈を付けていない。
本研究では,既存のディープフェイクデータセットを性別ラベルで手動でアノテートし,現在のディープフェイク検出器の性能差を評価した。
性別ラベル付きデータセットの分析から示唆される。
(a)現在のディープフェイクデータセットは、性別の分布を歪め、
b) 一般的に採用されているディープフェイク検出器は、女性よりも男性の方が多い性別間で不平等な性能を得る。
最後に,男女バランスと注釈付きディープフェイクデータセットGBDFを用いて,性能差を緩和し,フェアネスを意識したディープフェイク検出器の研究と開発を促進する。
GBDFデータセットは、https://github.com/aakash4305/GBDFで公開されている。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - DF40: Toward Next-Generation Deepfake Detection [62.073997142001424]
既存の研究は、ある特定のデータセットで検出器をトレーニングし、他の一般的なディープフェイクデータセットでテストすることで、トップノーチ検出アルゴリズムとモデルを識別する。
しかし、これらの「勝者」は現実の世界に潜む無数の現実的で多様なディープフェイクに取り組むために真に応用できるのだろうか?
我々は,40の異なるディープフェイク技術からなるDF40という,高度に多様なディープフェイク検出データセットを構築した。
論文 参考訳(メタデータ) (2024-06-19T12:35:02Z) - Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - Improving Fairness in Deepfake Detection [38.999205139257164]
ディープフェイク検出器の訓練に使用されるデータのバイアスは、異なる人種や性別で検出精度が異なることにつながる。
本稿では、人口統計情報の入手可能な設定と、この情報が欠落している場合の両方を扱う新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-06-29T02:19:49Z) - Fooling State-of-the-Art Deepfake Detection with High-Quality Deepfakes [2.0883760606514934]
我々は、複数の研究データセットで証明されたディープフェイク検出器が、よく作られた偽物と現実世界のシナリオで未だに苦戦していることを示す。
我々は,90個の高品質のディープフェイクを生成するために,高度な顔ブレンディング技術とともに,顔交換のための新しいオートエンコーダを提案する。
論文 参考訳(メタデータ) (2023-05-09T09:08:49Z) - Analyzing Fairness in Deepfake Detection With Massively Annotated
Databases [9.407035514709293]
パブリックなDeepfakeデータセットにおいてバイアス検出を引き起こす要因について検討する。
一般的な5つのDeepfakeデータセットに対して、47の異なる属性を持つ大規模な人口統計学的および非デコグラフィ的アノテーションを作成します。
我々は、これらのデータセット上の3つの最先端のDeepfake検出バックボーンモデルのAIバイアスの原因となる属性を分析する。
論文 参考訳(メタデータ) (2022-08-11T14:28:21Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - An Examination of Fairness of AI Models for Deepfake Detection [5.4852920337961235]
我々は保護されたサブグループ間のディープフェイクデータセットおよび検出モデルに存在するバイアスを評価する。
人種と性別のバランスをとる顔データセットを用いて,3つの一般的なディープフェイク検出器を調べ,人種間の予測性能に大きな差を見出した。
論文 参考訳(メタデータ) (2021-05-02T21:55:04Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。