論文の概要: Beyond the Prompt: Gender Bias in Text-to-Image Models, with a Case Study on Hospital Professions
- arxiv url: http://arxiv.org/abs/2510.00045v1
- Date: Sat, 27 Sep 2025 11:18:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.132226
- Title: Beyond the Prompt: Gender Bias in Text-to-Image Models, with a Case Study on Hospital Professions
- Title(参考訳): テキスト・ツー・イメージモデルにおけるジェンダーバイアスの枠を超えて : 病院の職業を事例として
- Authors: Franck Vandewiele, Remi Synave, Samuel Delepoulle, Remi Cozot,
- Abstract要約: 本稿では,Hunyuan Image 2.1,HiDream-I1-dev,Qwen-Image,FLUX.1-dev,Stable-Diffusion 3.5 Large,Stable-Diffusion-XLの6つの最先端オープンウェイトモデルにおける性別表現について検討する。
全てのモデルで女性や外科医が主に男性として看護婦を生産しています。
この結果は、バイアス認識設計、バランスの取れたデフォルト、およびAI生成における作業ステレオタイプの強化を防ぐためのユーザガイダンスの必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 0.0380593514849736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image (TTI) models are increasingly used in professional, educational, and creative contexts, yet their outputs often embed and amplify social biases. This paper investigates gender representation in six state-of-the-art open-weight models: HunyuanImage 2.1, HiDream-I1-dev, Qwen-Image, FLUX.1-dev, Stable-Diffusion 3.5 Large, and Stable-Diffusion-XL. Using carefully designed prompts, we generated 100 images for each combination of five hospital-related professions (cardiologist, hospital director, nurse, paramedic, surgeon) and five portrait qualifiers ("", corporate, neutral, aesthetic, beautiful). Our analysis reveals systematic occupational stereotypes: all models produced nurses exclusively as women and surgeons predominantly as men. However, differences emerge across models: Qwen-Image and SDXL enforce rigid male dominance, HiDream-I1-dev shows mixed outcomes, and FLUX.1-dev skews female in most roles. HunyuanImage 2.1 and Stable-Diffusion 3.5 Large also reproduce gender stereotypes but with varying degrees of sensitivity to prompt formulation. Portrait qualifiers further modulate gender balance, with terms like corporate reinforcing male depictions and beautiful favoring female ones. Sensitivity varies widely: Qwen-Image remains nearly unaffected, while FLUX.1-dev, SDXL, and SD3.5 show strong prompt dependence. These findings demonstrate that gender bias in TTI models is both systematic and model-specific. Beyond documenting disparities, we argue that prompt wording plays a critical role in shaping demographic outcomes. The results underscore the need for bias-aware design, balanced defaults, and user guidance to prevent the reinforcement of occupational stereotypes in generative AI.
- Abstract(参考訳): テキスト・トゥ・イメージ(英語版)(TTI)モデルは、プロ、教育、創造的な文脈でますます使われているが、そのアウトプットはしばしば社会的偏見を埋め込んで増幅する。
本稿では,Hunyuan Image 2.1,HiDream-I1-dev,Qwen-Image,FLUX.1-dev,Stable-Diffusion 3.5 Large,Stable-Diffusion-XLの6つの最先端オープンウェイトモデルにおける性別表現について検討する。
慎重に設計したプロンプトを用いて,5つの病院関連専門職(心臓科医,病院院長,看護師,救急医,外科医)と5つの肖像画等級(コーポレート,中立,美容,美容,美容)の組み合わせについて,100枚の画像を生成した。
全てのモデルで女性や外科医が主に男性として看護婦を生産しています。
しかし、Qwen-Image と SDXL は厳格な男性優位を強制し、HiDream-I1-dev は様々な結果を示し、FLUX.1-dev は多くの役割において女性を歪ませる。
HunyuanImage 2.1 と Stable-Diffusion 3.5 Large も性別のステレオタイプを再現するが、様々な感度を持つ。
ポートレートの等式はさらに男女のバランスを調節し、企業による男性の描写の強化や、女性の美しい好みの表現といった用語が用いられる。
Qwen-Imageはほとんど影響を受けていないが、FLUX.1-dev、SDXL、SD3.5は強い迅速な依存を示す。
これらの結果は、TTIモデルにおける性別バイアスは、体系的およびモデル固有であることを示している。
格差の文書化以外にも、人口統計学的結果を形成する上で、早急な言い回しが重要な役割を担っていると論じる。
この結果は、バイアス認識設計、バランスの取れたデフォルト、およびAI生成における作業ステレオタイプの強化を防ぐためのユーザガイダンスの必要性を浮き彫りにしている。
関連論文リスト
- Automated Evaluation of Gender Bias Across 13 Large Multimodal Models [0.0]
大規模マルチモーダルモデル(LMM)はテキスト・ツー・イメージ生成に革命をもたらしたが、トレーニングデータに有害な社会的バイアスが持続するリスクがある。
AI生成画像における社会的バイアスを評価するベンチマークである,Aymara Image Fairness Evaluationを導入する。
我々は,75のプロシージャ生成性中立性プロンプトを用いて13の市販LMMを試験し,ステレオタイプ,ステレオタイプ,非ステレオタイプの職業の人を生成する。
論文 参考訳(メタデータ) (2025-09-08T15:54:25Z) - Prompting Away Stereotypes? Evaluating Bias in Text-to-Image Models for Occupations [9.58968557546246]
我々は、イメージキュレーションと評価タスクとして、表現的社会的バイアス評価の枠組みを定めている。
5つの最先端モデルを用いて、中立なベースラインプロンプトと公正な制御プロンプトを比較する。
その結果、プロンプトは人口統計学的表現を著しく変化させるが、モデル固有の効果は高い。
論文 参考訳(メタデータ) (2025-08-31T13:46:16Z) - A Large Scale Analysis of Gender Biases in Text-to-Image Generative Models [47.16682882493828]
本稿では,テキスト・トゥ・イメージ(T2I)モデルにおけるジェンダーバイアスに関する大規模研究を行い,日常の状況に着目した。
我々は3,217のジェンダーニュートラルプロンプトのデータセットを作成し、5つの主要なT2Iモデルからのプロンプト毎に5つのプロンプトに対して200の画像を生成する。
生成した画像中の知覚された人物の性別を自動的に検出し、性別の異なる人物や複数の人物の像をフィルタリングする。
分析の結果、T2Iモデルは伝統的なジェンダーの役割を強化し、家庭の役割における一般的なジェンダーステレオタイプを反映していることがわかった。
論文 参考訳(メタデータ) (2025-03-30T11:11:51Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。