論文の概要: Uncovering Bias in Face Generation Models
- arxiv url: http://arxiv.org/abs/2302.11562v1
- Date: Wed, 22 Feb 2023 18:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 14:09:54.250499
- Title: Uncovering Bias in Face Generation Models
- Title(参考訳): 顔生成モデルにおけるバイアスの解明
- Authors: Cristian Mu\~noz, Sara Zannone, Umar Mohammed, Adriano Koshiyama
- Abstract要約: GANと拡散モデルの最近の進歩により、高解像度の超現実的画像の作成が可能になった。
これらのモデルは特定の社会集団を誤って表現し、偏見を呈することがある。
この研究は、3つのアプローチに対するバイアスのきめ細かい理解のための空間をカバーおよび埋め込みする新しい分析である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in GANs and diffusion models have enabled the creation of
high-resolution, hyper-realistic images. However, these models may misrepresent
certain social groups and present bias. Understanding bias in these models
remains an important research question, especially for tasks that support
critical decision-making and could affect minorities. The contribution of this
work is a novel analysis covering architectures and embedding spaces for
fine-grained understanding of bias over three approaches: generators, attribute
modifier, and post-processing bias mitigators. This work shows that generators
suffer from bias across all social groups with attribute preferences such as
between 75%-85% for whiteness and 60%-80% for the female gender (for all
trained CelebA models) and low probabilities of generating children and older
men. Modifier and mitigators work as post-processor and change the generator
performance. For instance, attribute channel perturbation strategies modify the
embedding spaces. We quantify the influence of this change on group fairness by
measuring the impact on image quality and group features. Specifically, we use
the Fr\'echet Inception Distance (FID), the Face Matching Error and the
Self-Similarity score. For Interfacegan, we analyze one and two attribute
channel perturbations and examine the effect on the fairness distribution and
the quality of the image. Finally, we analyzed the post-processing bias
mitigators, which are the fastest and most computationally efficient way to
mitigate bias. We find that these mitigation techniques show similar results on
KL divergence and FID score, however, self-similarity scores show a different
feature concentration on the new groups of the data distribution. The
weaknesses and ongoing challenges described in this work must be considered in
the pursuit of creating fair and unbiased face generation models.
- Abstract(参考訳): GANと拡散モデルの最近の進歩により、高解像度の超現実的画像の作成が可能になった。
しかし、これらのモデルは特定の社会集団を誤解し、偏見を呈する可能性がある。
これらのモデルのバイアスを理解することは重要な研究課題であり、特に重要な意思決定をサポートし、マイノリティに影響を与える可能性がある。
この研究の貢献は、3つのアプローチ(ジェネレータ、属性修飾子、後処理バイアス緩和子)におけるバイアスのきめ細かい理解のためのアーキテクチャと埋め込み空間をカバーする新しい分析である。
この研究は、発生者が白人の75%-85%、女性性(すべての訓練されたセロバモデル)の60%-80%、子供や年上の男性を産む確率が低いといった属性の選好を持つすべての社会グループで偏りに苦しむことを示している。
修正子とミミゲータは後処理として動作し、ジェネレータのパフォーマンスを変更する。
例えば、属性チャネルの摂動戦略は埋め込み空間を変更する。
我々は,この変化がグループフェアネスに与える影響を,画像品質とグループ特徴に与える影響を定量化する。
具体的には、Fr'echet Inception Distance (FID)、Face Matching Error、Self-Similarityスコアを使用する。
インタフェースガンでは,1つの属性チャネルの摂動を解析し,画像の公平度分布と品質に与える影響を検討する。
最後に, バイアスを緩和する最も高速かつ計算効率の良い手法である, 処理後バイアス緩和器の解析を行った。
これらの緩和手法はklの発散とfidスコアに類似した結果を示すが、自己相似性スコアはデータ分布の新しいグループに対して異なる特徴集中を示す。
この研究で述べられている弱点と継続的な課題は、公平で偏見のない顔生成モデルを作成するために考慮する必要がある。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute
Classification [72.99103392426919]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Leveraging Diffusion Perturbations for Measuring Fairness in Computer
Vision [25.414154497482162]
拡散モデルを利用してそのようなデータセットを作成できることを実証する。
マルチクラスの職業分類タスクにおいて,複数の視覚言語モデルをベンチマークする。
非コーカサスラベルで生成された画像は、コーカサスラベルで生成された画像よりも、職業的誤分類率が高いことが判明した。
論文 参考訳(メタデータ) (2023-11-25T19:40:13Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - When Mitigating Bias is Unfair: A Comprehensive Study on the Impact of
Bias Mitigation Algorithms [5.606953005101632]
偏見緩和アプローチは, 対象者数と対象者数の両方において, 戦略に大きく違いがあることが示される。
これらの結果は、現在のグループフェアネス指標の限界に関する疑問を提起する。
論文 参考訳(メタデータ) (2023-02-14T16:53:52Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Towards Explaining Demographic Bias through the Eyes of Face Recognition
Models [6.889667606945215]
データとアルゴリズムの両方に固有のバイアスは、機械学習(ML)ベースの意思決定システムの公平性を最適以下にする。
我々は、異なる人口集団を処理する際に、顔認識モデルの振る舞いの違いを分析する一連の説明可能性ツールを提供することを目標としている。
我々は、アクティベーションマップに基づく高次統計情報を活用して、FRモデルの行動差を特定の顔領域に関連付ける説明可能性ツールを構築する。
論文 参考訳(メタデータ) (2022-08-29T07:23:06Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。