論文の概要: T2IBias: Uncovering Societal Bias Encoded in the Latent Space of Text-to-Image Generative Models
- arxiv url: http://arxiv.org/abs/2511.10089v1
- Date: Fri, 14 Nov 2025 01:31:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.689878
- Title: T2IBias: Uncovering Societal Bias Encoded in the Latent Space of Text-to-Image Generative Models
- Title(参考訳): T2IBias: テキスト・画像生成モデルの潜在空間に符号化された社会バイアスを発見する
- Authors: Abu Sufian, Cosimo Distante, Marco Leo, Hanan Salam,
- Abstract要約: テキスト・ツー・イメージ(T2I)生成モデルは、AIによる実世界のアプリケーションや価値創造に主に使用されている。
我々は、最先端T2Iモデルの事前訓練された潜在空間において、社会的バイアスが体系的に符号化されているかどうかを検討する。
- 参考スコア(独自算出の注目度): 5.565960549039278
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text-to-image (T2I) generative models are largely used in AI-powered real-world applications and value creation. However, their strategic deployment raises critical concerns for responsible AI management, particularly regarding the reproduction and amplification of race- and gender-related stereotypes that can undermine organizational ethics. In this work, we investigate whether such societal biases are systematically encoded within the pretrained latent spaces of state-of-the-art T2I models. We conduct an empirical study across the five most popular open-source models, using ten neutral, profession-related prompts to generate 100 images per profession, resulting in a dataset of 5,000 images evaluated by diverse human assessors representing different races and genders. We demonstrate that all five models encode and amplify pronounced societal skew: caregiving and nursing roles are consistently feminized, while high-status professions such as corporate CEO, politician, doctor, and lawyer are overwhelmingly represented by males and mostly White individuals. We further identify model-specific patterns, such as QWEN-Image's near-exclusive focus on East Asian outputs, Kandinsky's dominance of White individuals, and SDXL's comparatively broader but still biased distributions. These results provide critical insights for AI project managers and practitioners, enabling them to select equitable AI models and customized prompts that generate images in alignment with the principles of responsible AI. We conclude by discussing the risks of these biases and proposing actionable strategies for bias mitigation in building responsible GenAI systems.
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)生成モデルは、AIによる実世界のアプリケーションや価値創造に主に使用されている。
しかし、彼らの戦略的展開は、特に組織倫理を損なう可能性のある人種や性別に関連するステレオタイプの再現と増幅に関して、責任あるAI管理に対する重要な懸念を提起する。
本研究では,最先端T2Iモデルの事前学習された潜在空間において,そのような社会的バイアスが体系的に符号化されているかを検討する。
我々は、最も人気のある5つのオープンソースモデルに対して、中性で専門職に関連する10のプロンプトを使用して、職業ごとに100の画像を生成する実験的な研究を行い、その結果、異なる人種や性別を表す多様な人間の評価者によって評価された5000の画像のデータセットを作成した。
介護と看護の役割は一貫してフェミニズされ、コーポレートCEO、政治家、医師、弁護士のような高水準の職業は圧倒的に男性や主に白人によって代表される。
さらに、QWEN-Imageの東アジアのアウトプットへのほぼ排他的な焦点、カンディンスキーの白人個人支配、SDXLの比較的広く偏りのある分布など、モデル固有のパターンを同定する。
これらの結果は、AIプロジェクトマネージャと実践者にとって重要な洞察を与え、責任あるAIの原則に沿って画像を生成する、公平なAIモデルとカスタマイズされたプロンプトを選択することができる。
我々は、これらのバイアスのリスクについて議論し、責任あるGenAIシステムを構築する際のバイアス軽減のための実行可能な戦略を提案する。
関連論文リスト
- Prompting Away Stereotypes? Evaluating Bias in Text-to-Image Models for Occupations [9.58968557546246]
我々は、イメージキュレーションと評価タスクとして、表現的社会的バイアス評価の枠組みを定めている。
5つの最先端モデルを用いて、中立なベースラインプロンプトと公正な制御プロンプトを比較する。
その結果、プロンプトは人口統計学的表現を著しく変化させるが、モデル固有の効果は高い。
論文 参考訳(メタデータ) (2025-08-31T13:46:16Z) - Can we Debias Social Stereotypes in AI-Generated Images? Examining Text-to-Image Outputs and User Perceptions [6.87895735248661]
本稿では,T2I出力の社会的バイアスを評価するために,理論駆動型バイアス検出ルーブリックと社会ステレオタイプ指標(SSI)を提案する。
我々は,T2Iモデルの3つの主要なアウトプットを,地理的・職業的・形容詞的な3つのカテゴリにわたる100のクエリを用いて監査した。
迅速な改良はステレオタイプを緩和するが、コンテキストアライメントを制限することができる。
論文 参考訳(メタデータ) (2025-05-27T04:01:03Z) - Using complex prompts to identify fine-grained biases in image generation through ChatGPT-4o [0.0]
バイアスの2つの次元は、大きなAIモデルの研究を通して明らかにすることができる。
トレーニングデータやAIの製品に偏りがあるだけでなく、社会にも偏りがある。
画像生成AIに複雑なプロンプトを使ってバイアスのどちらの次元を調査できるかを簡単に議論する。
論文 参考訳(メタデータ) (2025-04-01T03:17:35Z) - A Large Scale Analysis of Gender Biases in Text-to-Image Generative Models [47.16682882493828]
本稿では,テキスト・トゥ・イメージ(T2I)モデルにおけるジェンダーバイアスに関する大規模研究を行い,日常の状況に着目した。
我々は3,217のジェンダーニュートラルプロンプトのデータセットを作成し、5つの主要なT2Iモデルからのプロンプト毎に5つのプロンプトに対して200の画像を生成する。
生成した画像中の知覚された人物の性別を自動的に検出し、性別の異なる人物や複数の人物の像をフィルタリングする。
分析の結果、T2Iモデルは伝統的なジェンダーの役割を強化し、家庭の役割における一般的なジェンダーステレオタイプを反映していることがわかった。
論文 参考訳(メタデータ) (2025-03-30T11:11:51Z) - Exploring Bias in over 100 Text-to-Image Generative Models [49.60774626839712]
本稿では,Hugging Faceのようなオープンプラットフォームによるモデルの利用率向上に着目し,テキストから画像への生成モデルにおけるバイアスの傾向について検討する。
我々は, (i) 分布バイアス, (ii) 生成幻覚, (iii) 生成ミスレートの3つの主要な次元にまたがるバイアスを評価する。
以上の結果から, 芸術的モデルとスタイル変換モデルに有意なバイアスが生じる一方で, より広範なトレーニング分布の恩恵を受ける基礎モデルでは, 徐々にバイアスが減っていることが示唆された。
論文 参考訳(メタデータ) (2025-03-11T03:40:44Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。