論文の概要: Happy Young Women, Grumpy Old Men? Emotion-Driven Demographic Biases in Synthetic Face Generation
- arxiv url: http://arxiv.org/abs/2602.00032v2
- Date: Tue, 03 Feb 2026 08:10:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.235211
- Title: Happy Young Women, Grumpy Old Men? Emotion-Driven Demographic Biases in Synthetic Face Generation
- Title(参考訳): 幸せな若い女性, グラムピーな老人? : 合成顔生成における感情駆動型デモグラフィックバイアス
- Authors: Mengting Wei, Aditya Gulati, Guoying Zhao, Nuria Oliver,
- Abstract要約: 我々は8つの最先端テキスト・トゥ・イメージ(T2I)モデルの体系的な監査を行う。
最先端の顔分析アルゴリズムを用いて、生成した顔の性別、人種、年齢、魅力レベルを推定する。
以上の結果から,出身国に関係なく,すべてのモデルにおいて永続的な人口動態と感情条件バイアスがみられた。
- 参考スコア(独自算出の注目度): 23.578218002193996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic face generation has rapidly advanced with the emergence of text-to-image (T2I) and of multimodal large language models, enabling high-fidelity image production from natural-language prompts. Despite the widespread adoption of these tools, the biases, representational quality, and cross-cultural consistency of these models remain poorly understood. Prior research on biases in the synthetic generation of human faces has examined demographic biases, yet there is little research on how emotional prompts influence demographic representation and how models trained in different cultural and linguistic contexts vary in their output distributions. We present a systematic audit of eight state-of-the-art T2I models comprising four models developed by Western organizations and four developed by Chinese institutions, all prompted identically. Using state-of-the-art facial analysis algorithms, we estimate the gender, race, age, and attractiveness levels in the generated faces. To measure the deviations from global population statistics, we apply information-theoretic bias metrics including Kullback-Leibler and Jensen-Shannon divergences. Our findings reveal persistent demographic and emotion-conditioned biases in all models regardless of their country of origin. We discuss implications for fairness, socio-technical harms, governance, and the development of transparent generative systems.
- Abstract(参考訳): 合成顔生成はテキスト・ツー・イメージ(T2I)や多モーダル大言語モデルの出現とともに急速に進歩し、自然言語プロンプトによる高忠実な画像生成が可能となった。
これらのツールが広く採用されているにもかかわらず、バイアス、表現的品質、およびこれらのモデルの文化的整合性はいまだに理解されていない。
人間の顔の合成生成におけるバイアスに関する以前の研究は、人口統計学的バイアスを調査してきたが、感情的刺激が人口動態表現にどのように影響するか、そして異なる文化的・言語的文脈で訓練されたモデルが、その出力分布にどう影響するかについてはほとんど研究されていない。
欧米の機関によって開発された4つのモデルと中国の機関によって開発された4つのモデルからなる8つの最先端T2Iモデルの体系的な監査を行った。
最先端の顔分析アルゴリズムを用いて、生成した顔の性別、人種、年齢、魅力レベルを推定する。
グローバルな人口統計から逸脱を測定するために,Kulback-Leibler や Jensen-Shannon の発散率などの情報理論バイアス指標を適用した。
以上の結果から,出身国に関係なく,すべてのモデルにおいて永続的な人口動態と感情条件バイアスがみられた。
我々は、公正性、社会技術的害、ガバナンス、透明な生成システムの発展の意味について論じる。
関連論文リスト
- Mitigation of Gender and Ethnicity Bias in AI-Generated Stories through Model Explanations [2.86989372262348]
言語モデルは、特に性別と民族の表現において、そのアウトプットを通じて社会的偏見を伝播させることが示されている。
本稿では,AIが生み出す職業物語におけるジェンダーと民族のバイアスについて検討する。
提案した緩和戦略であるバイアス分析と説明による緩和(BAME)は,2%から20%の範囲の人口表現の改善を明らかにする。
論文 参考訳(メタデータ) (2025-09-03T00:25:25Z) - Blind Men and the Elephant: Diverse Perspectives on Gender Stereotypes in Benchmark Datasets [12.798832545154271]
本稿では,内在型ステレオタイプベンチマークの不整合について検討する。
StereoSetとCrowS-Pairsをケーススタディとして,データ分布がベンチマーク結果に与える影響を検討した。
論文 参考訳(メタデータ) (2025-01-02T09:40:31Z) - Evaluating Large Language Models through Gender and Racial Stereotypes [0.0]
質比較研究を行い、性別と人種の2種類の偏見を前提として、言語モデルを評価する枠組みを確立する。
より古いモデルに比べて、新しいモデルでは男女の偏見が大幅に減少したが、人種の偏見は依然として存在する。
論文 参考訳(メタデータ) (2023-11-24T18:41:16Z) - Exposing Bias in Online Communities through Large-Scale Language Models [3.04585143845864]
この研究は、言語モデルにおけるバイアスの欠陥を使用して、6つの異なるオンラインコミュニティのバイアスを調査します。
得られたモデルのバイアスは、異なる人口層を持つモデルに促し、これらの世代における感情と毒性の値を比較することで評価される。
この作業は、トレーニングデータからバイアスがどの程度容易に吸収されるかを確認するだけでなく、さまざまなデータセットやコミュニティのバイアスを特定し比較するためのスケーラブルな方法も提示する。
論文 参考訳(メタデータ) (2023-06-04T08:09:26Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。