論文の概要: Imperfect ImaGANation: Implications of GANs Exacerbating Biases on
Facial Data Augmentation and Snapchat Selfie Lenses
- arxiv url: http://arxiv.org/abs/2001.09528v3
- Date: Wed, 16 Jun 2021 02:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 19:09:00.765731
- Title: Imperfect ImaGANation: Implications of GANs Exacerbating Biases on
Facial Data Augmentation and Snapchat Selfie Lenses
- Title(参考訳): 不完全なImaGAN: 顔データ増大とSnapchatの自撮りレンズに対するGANの効果
- Authors: Niharika Jain, Alberto Olmo, Sailik Sengupta, Lydia Manikonda,
Subbarao Kambhampati
- Abstract要約: 一般的なGAN(Generative Adversarial Networks)は,顔ショットのスキュー分布を与えられると,性別や肌の色調の軸に沿ってバイアスが増すことを示す。
GANはまた、非白人の肌の色を明るくし、工学教授の顔を生成する際に女性の顔の特徴を男性に変化させることによってバイアスを悪化させる。
- 参考スコア(独自算出の注目度): 20.36399588424965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we show that popular Generative Adversarial Networks (GANs)
exacerbate biases along the axes of gender and skin tone when given a skewed
distribution of face-shots. While practitioners celebrate synthetic data
generation using GANs as an economical way to augment data for training
data-hungry machine learning models, it is unclear whether they recognize the
perils of such techniques when applied to real world datasets biased along
latent dimensions. Specifically, we show that (1) traditional GANs further skew
the distribution of a dataset consisting of engineering faculty headshots,
generating minority modes less often and of worse quality and (2)
image-to-image translation (conditional) GANs also exacerbate biases by
lightening skin color of non-white faces and transforming female facial
features to be masculine when generating faces of engineering professors. Thus,
our study is meant to serve as a cautionary tale.
- Abstract(参考訳): 本稿では,一般的なGAN(Generative Adversarial Networks)が,顔画像のスキュー分布を与えると,性別や肌の色調の軸に沿ってバイアスを悪化させることを示す。
実践者はgansを機械学習モデルのトレーニングのためのデータ拡張の経済的な方法として使う合成データ生成を祝っているが、潜在次元に偏りのある現実世界のデータセットに適用された場合、そのような技術の周辺を認識できるかどうかは不明である。
具体的には,(1) 従来のGANは,(1) 工学教員の頭部写真からなるデータセットの分布をさらに歪め,マイノリティモードの発生頻度を少なくし,品質を悪くし,(2) 画像から画像への変換(条件付き) GANは非白顔の肌色を明るくし,女性の顔の特徴を男性に変化させることによってバイアスを悪化させることを示した。
したがって,本研究は,注意談としての役割を果たすことを目的としている。
関連論文リスト
- FaceSaliencyAug: Mitigating Geographic, Gender and Stereotypical Biases via Saliency-Based Data Augmentation [46.74201905814679]
コンピュータビジョンモデルにおける性別バイアスに対処することを目的としたFaceSaliencyAugというアプローチを提案する。
Flickr Faces HQ(FFHQ)、WIKI、IMDB、Labelled Faces in the Wild(LFW)、UTK Faces、Diverseデータセットを含む5つのデータセットで、画像類似度スコア(ISS)を使用してデータセットの多様性を定量化する。
実験の結果,CNN と ViT の男女差の低減が明らかとなり,コンピュータビジョンモデルにおける公平性と傾きの促進に本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2024-10-17T22:36:52Z) - Toward responsible face datasets: modeling the distribution of a
disentangled latent space for sampling face images from demographic groups [0.0]
近年、一部の現代の顔認識システムが特定の人口集団を識別できることが明らかにされている。
そこで我々は,StyleGANラテント空間の非交叉射影をモデル化し,サンプリングするための簡単な手法を提案する。
実験の結果、人口集団の組み合わせを効果的に合成できることが示され、同一性は元のトレーニングデータセットと異なることがわかった。
論文 参考訳(メタデータ) (2023-09-15T14:42:04Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - On GANs perpetuating biases for face verification [75.99046162669997]
GANなどの生成モデルから生成されたデータにはバイアスや公平性の問題が伴う。
特に、FFHQデータセットでトレーニングされたGANは、20~29歳の年齢層で白人の顔を生成するバイアスを示している。
論文 参考訳(メタデータ) (2022-08-27T17:47:09Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Improving the Fairness of Deep Generative Models without Retraining [41.6580482370894]
GAN(Generative Adversarial Networks)は、観測データの基盤となる分布を学習し、顔合成を進める。
高品質な生成顔にもかかわらず、一部の少数グループはバイアス画像生成プロセスのためにトレーニングされたモデルから生成されることは稀である。
アウトプット顔面特性を再訓練することなくバランスをとるための解釈可能なベースライン法を提案する。
論文 参考訳(メタデータ) (2020-12-09T03:20:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。