論文の概要: On GANs perpetuating biases for face verification
- arxiv url: http://arxiv.org/abs/2208.13061v1
- Date: Sat, 27 Aug 2022 17:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 12:48:35.308529
- Title: On GANs perpetuating biases for face verification
- Title(参考訳): 顔認証のためのGANの持続的バイアスについて
- Authors: Sasikanth Kotti, Mayank Vatsa, Richa Singh
- Abstract要約: GANなどの生成モデルから生成されたデータにはバイアスや公平性の問題が伴う。
特に、FFHQデータセットでトレーニングされたGANは、20~29歳の年齢層で白人の顔を生成するバイアスを示している。
- 参考スコア(独自算出の注目度): 75.99046162669997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DeepLearningsystemsneedlargedatafortraining.Datasets for training face
verification systems are difficult to obtain and prone to privacy issues.
Synthetic data generated by generative models such as GANs can be a good
alternative. However, we show that data generated from GANs are prone to bias
and fairness issues. Specifically GANs trained on FFHQ dataset show bias
towards generating white faces in the age group of 20-29. We also demonstrate
that synthetic faces cause disparate impact, specifically for race attribute,
when used for fine tuning face verification systems. This is measured using
$DoB_{fv}$ metric, which is defined as standard deviation of GAR@FAR for face
verification.
- Abstract(参考訳): deeplearningsystemsneedlargedatafortraining.datasets for training face verification systemsは、取得が難しく、プライバシの問題が発生しやすい。
GANのような生成モデルによって生成された合成データは、良い代替となる。
しかし, GANから生成されたデータは, 偏見や公平性の問題が多い。
特に、FFHQデータセットでトレーニングされたGANは、20~29歳の年齢層で白人の顔を生成するバイアスを示している。
また, 顔認証システムの微調整に使用する場合, 合成顔が, 特にレース属性に異種影響をもたらすことを実証した。
これは、顔認証のための GAR@FAR の標準偏差として定義される $DoB_{fv}$ metric を用いて測定される。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - A Dataless FaceSwap Detection Approach Using Synthetic Images [5.73382615946951]
本稿では,StyleGAN3を用いた合成データを用いて,実データの必要性を解消するディープフェイク検出手法を提案する。
これは、実際のデータを使用する従来のトレーニング方法論に匹敵するだけでなく、少量の実際のデータで微調整された場合、より優れた一般化能力を示す。
論文 参考訳(メタデータ) (2022-12-05T19:49:45Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks [71.6879432974126]
本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-25T12:39:56Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Imperfect ImaGANation: Implications of GANs Exacerbating Biases on
Facial Data Augmentation and Snapchat Selfie Lenses [20.36399588424965]
一般的なGAN(Generative Adversarial Networks)は,顔ショットのスキュー分布を与えられると,性別や肌の色調の軸に沿ってバイアスが増すことを示す。
GANはまた、非白人の肌の色を明るくし、工学教授の顔を生成する際に女性の顔の特徴を男性に変化させることによってバイアスを悪化させる。
論文 参考訳(メタデータ) (2020-01-26T21:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。