論文の概要: Studying Bias in GANs through the Lens of Race
- arxiv url: http://arxiv.org/abs/2209.02836v1
- Date: Tue, 6 Sep 2022 22:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:07:10.829147
- Title: Studying Bias in GANs through the Lens of Race
- Title(参考訳): レースレンズによるGANのバイアスの研究
- Authors: Vongani H. Maluleke, Neerja Thakkar, Tim Brooks, Ethan Weber, Trevor
Darrell, Alexei A. Efros, Angjoo Kanazawa, Devin Guillory
- Abstract要約: 本研究では, 画像生成モデルの性能と評価が, 学習データセットの人種構成にどのように影響するかを検討する。
その結果, 生成した画像の人種構成は, トレーニングデータの保存に成功していることがわかった。
しかし、推論中に高品質な画像を生成する手法であるトランケーションは、データの人種的不均衡を悪化させる。
- 参考スコア(独自算出の注目度): 91.95264864405493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we study how the performance and evaluation of generative image
models are impacted by the racial composition of their training datasets. By
examining and controlling the racial distributions in various training
datasets, we are able to observe the impacts of different training
distributions on generated image quality and the racial distributions of the
generated images. Our results show that the racial compositions of generated
images successfully preserve that of the training data. However, we observe
that truncation, a technique used to generate higher quality images during
inference, exacerbates racial imbalances in the data. Lastly, when examining
the relationship between image quality and race, we find that the highest
perceived visual quality images of a given race come from a distribution where
that race is well-represented, and that annotators consistently prefer
generated images of white people over those of Black people.
- Abstract(参考訳): 本研究では,生成画像モデルの性能と評価が,トレーニングデータセットの人種構成に与える影響について検討する。
各種訓練データセットの人種分布を調査,制御することにより,異なる訓練分布が生成画像の品質および生成画像の人種分布に与える影響を観察することができる。
その結果, 生成した画像の人種構成は, トレーニングデータの保存に成功していることがわかった。
しかし、推論中に高品質な画像を生成する手法であるトランケーションは、データの人種的不均衡を悪化させる。
最後に、画像品質と人種の関係を調べたところ、人種の視覚的品質が最も高い画像は、その人種がよく表現されている分布から来ており、アノテータは黒人よりも白人のイメージを常に好んでいることがわかった。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Leveraging Diffusion Perturbations for Measuring Fairness in Computer
Vision [25.414154497482162]
拡散モデルを利用してそのようなデータセットを作成できることを実証する。
マルチクラスの職業分類タスクにおいて,複数の視覚言語モデルをベンチマークする。
非コーカサスラベルで生成された画像は、コーカサスラベルで生成された画像よりも、職業的誤分類率が高いことが判明した。
論文 参考訳(メタデータ) (2023-11-25T19:40:13Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Addressing Racial Bias in Facial Emotion Recognition [1.4896509623302834]
本研究は、人種分布の異なるサブサンプリングトレーニングセットによる人種バイアスの分析に焦点を当てた。
その結果,シミュレーションが人種的バランスに近づくにつれて,顔の小さいデータセットは公平さとパフォーマンスの指標の両方を改善することが示唆された。
顔の変動が大きい大きなデータセットでは、公正度指標は概して一定であり、人種的バランス自体が異なる人種グループ間でのテストパフォーマンスの同等性を達成するには不十分であることを示唆している。
論文 参考訳(メタデータ) (2023-08-09T03:03:35Z) - The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look [0.0]
トレーニングデータにおける人種分布が顔認識モデルの性能に及ぼす影響について検討する。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
論文 参考訳(メタデータ) (2022-11-26T07:03:24Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation [1.6386696247541932]
AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2021-06-23T13:27:35Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。