論文の概要: An Examination of Fairness of AI Models for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2105.00558v1
- Date: Sun, 2 May 2021 21:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:22:14.200173
- Title: An Examination of Fairness of AI Models for Deepfake Detection
- Title(参考訳): ディープフェイク検出のためのAIモデルの公正性の検討
- Authors: Loc Trinh, Yan Liu
- Abstract要約: 我々は保護されたサブグループ間のディープフェイクデータセットおよび検出モデルに存在するバイアスを評価する。
人種と性別のバランスをとる顔データセットを用いて,3つの一般的なディープフェイク検出器を調べ,人種間の予測性能に大きな差を見出した。
- 参考スコア(独自算出の注目度): 5.4852920337961235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have demonstrated that deep learning models can discriminate
based on protected classes like race and gender. In this work, we evaluate bias
present in deepfake datasets and detection models across protected subgroups.
Using facial datasets balanced by race and gender, we examine three popular
deepfake detectors and find large disparities in predictive performances across
races, with up to 10.7% difference in error rate between subgroups. A closer
look reveals that the widely used FaceForensics++ dataset is overwhelmingly
composed of Caucasian subjects, with the majority being female Caucasians. Our
investigation of the racial distribution of deepfakes reveals that the methods
used to create deepfakes as positive training signals tend to produce
"irregular" faces - when a person's face is swapped onto another person of a
different race or gender. This causes detectors to learn spurious correlations
between the foreground faces and fakeness. Moreover, when detectors are trained
with the Blended Image (BI) dataset from Face X-Rays, we find that those
detectors develop systematic discrimination towards certain racial subgroups,
primarily female Asians.
- Abstract(参考訳): 近年の研究では、人種や性別などの保護されたクラスに基づいてディープラーニングモデルを判別できることが示されている。
本研究では,保護サブグループ間のディープフェイクデータセットおよび検出モデルにおけるバイアスを評価する。
人種と性別のバランスの取れた顔データセットを用いて、3つの人気のディープフェイク検出器を調べ、人種間での予測性能に大きな差異を見出した。
より詳しく見ると、広く使われているfaceforensics++データセットは、圧倒的に白人の被験者で構成されており、その大半は女性白人である。
ディープフェイクの人種分布を調査したところ、ポジティブなトレーニング信号としてディープフェイクを作るのに使われた方法は、人の顔が別の人種や性別の別の人に置き換わるときに、"不規則"な顔を生み出す傾向があることが判明した。
これにより、検出器は前景の顔と偽物の相関関係を学習する。
さらに、Face X-RaysのBlended Image (BI)データセットで検出器を訓練すると、これらの検出器は特定の人種的サブグループ(主に女性アジア人)に対して体系的に識別される。
関連論文リスト
- From Bias to Balance: Detecting Facial Expression Recognition Biases in Large Multimodal Foundation Models [3.1927733045184885]
本研究では,大規模マルチモーダルファンデーションモデル(LMFM)における表情認識(FER)システムの人種的偏見について考察する。
既存の研究は主に従来のFERモデル(CNN、RNN、ViT)に焦点を当てており、LMFMにおける人種的バイアスの理解のギャップを残している。
GPT-4o、PaliGemma、Gemini、CLIPの4つの主要なLMFMをベンチマークし、異なる人種層にわたる顔の感情検出のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-08-27T07:54:01Z) - Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases [11.191375513738361]
近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
論文 参考訳(メタデータ) (2023-07-19T14:49:14Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - Mitigating Gender Bias in Face Recognition Using the von Mises-Fisher
Mixture Model [7.049738935364298]
本研究では,ディープ顔認識ネットワークの性別バイアスについて検討する。
幾何学的考察により、新しいポストプロセッシング手法により性別バイアスを緩和する。
実際、様々なデータセットに関する広範な数値実験は、慎重に選択することで性バイアスが大幅に減少することを示している。
論文 参考訳(メタデータ) (2022-10-24T23:53:56Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - GBDF: Gender Balanced DeepFake Dataset Towards Fair DeepFake Detection [1.0152838128195467]
ディープフェイクによる顔の偽造は、深刻な社会的懸念を引き起こしている。
近年の研究では、顔分析に基づくディープラーニングモデルが保護属性に基づいて識別できることが示されている。
ディープフェイク検知器の評価と理解は、性別や人種などの人口動態にまたがって必要不可欠である。
論文 参考訳(メタデータ) (2022-07-21T01:00:40Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。