論文の概要: Prompting Away Stereotypes? Evaluating Bias in Text-to-Image Models for Occupations
- arxiv url: http://arxiv.org/abs/2509.00849v1
- Date: Sun, 31 Aug 2025 13:46:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.427958
- Title: Prompting Away Stereotypes? Evaluating Bias in Text-to-Image Models for Occupations
- Title(参考訳): ステレオタイプをプロンプトする : 作業用テキスト・画像モデルにおけるバイアスの評価
- Authors: Shaina Raza, Maximus Powers, Partha Pratim Saha, Mahveen Raza, Rizwan Qureshi,
- Abstract要約: 我々は、イメージキュレーションと評価タスクとして、表現的社会的バイアス評価の枠組みを定めている。
5つの最先端モデルを用いて、中立なベースラインプロンプトと公正な制御プロンプトを比較する。
その結果、プロンプトは人口統計学的表現を著しく変化させるが、モデル固有の効果は高い。
- 参考スコア(独自算出の注目度): 9.58968557546246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-Image (TTI) models are powerful creative tools but risk amplifying harmful social biases. We frame representational societal bias assessment as an image curation and evaluation task and introduce a pilot benchmark of occupational portrayals spanning five socially salient roles (CEO, Nurse, Software Engineer, Teacher, Athlete). Using five state-of-the-art models: closed-source (DALLE 3, Gemini Imagen 4.0) and open-source (FLUX.1-dev, Stable Diffusion XL Turbo, Grok-2 Image), we compare neutral baseline prompts against fairness-aware controlled prompts designed to encourage demographic diversity. All outputs are annotated for gender (male, female) and race (Asian, Black, White), enabling structured distributional analysis. Results show that prompting can substantially shift demographic representations, but with highly model-specific effects: some systems diversify effectively, others overcorrect into unrealistic uniformity, and some show little responsiveness. These findings highlight both the promise and the limitations of prompting as a fairness intervention, underscoring the need for complementary model-level strategies. We release all code and data for transparency and reproducibility https://github.com/maximus-powers/img-gen-bias-analysis.
- Abstract(参考訳): テキスト・トゥ・イメージ(TTI)モデルは強力な創造ツールであるが、有害な社会的バイアスを増幅するリスクがある。
イメージキュレーションと評価タスクとしての表現的社会的バイアス評価を枠組み化し,5つの社会的に有能な役割(CEO,Nurse,ソフトウェア技術者,教師,スポーツ選手)にまたがる職業的描写のパイロットベンチマークを導入する。
クローズドソース (DALLE 3, Gemini Imagen 4.0) とオープンソース (FLUX.1-dev, Stable Diffusion XL Turbo, Grok-2 Image) の5つの最先端モデルを用いて、人口多様性を促進するために設計された公正な制御プロンプトと中立なベースラインプロンプトを比較した。
すべての出力は性別(男性、女性)と人種(アジア、黒人、白人)に注釈付けされ、構造化された分布解析を可能にする。
いくつかのシステムは効果的に多様化し、他のシステムは非現実的な均一性に過度に修正され、応答性がほとんどない。
これらの知見は、公正な介入を示唆する約束と制限の両方を強調し、補完的なモデルレベルの戦略の必要性を強調している。
透明性と再現性のためのすべてのコードとデータ https://github.com/maximus-powers/img-gen-bias-analysis。
関連論文リスト
- Fact-or-Fair: A Checklist for Behavioral Testing of AI Models on Fairness-Related Queries [85.909363478929]
本研究では,権威ある情報源から収集した19の実世界統計に着目した。
主観的および主観的な問合せからなるチェックリストを作成し,大規模言語モデルの振る舞いを解析する。
事実性と公平性を評価するためのメトリクスを提案し、これらの2つの側面の間に固有のトレードオフを正式に証明する。
論文 参考訳(メタデータ) (2025-02-09T10:54:11Z) - DebiasPI: Inference-time Debiasing by Prompt Iteration of a Text-to-Image Generative Model [20.915693552625502]
本稿では,Debiasing-by-Prompt-Iterationのための推論時間プロセスであるDebiasPIを提案する。
DebiasPIにより、画像生成における個人の属性の分布を制御することができる。
論文 参考訳(メタデータ) (2025-01-28T23:17:20Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Leveraging Diffusion Perturbations for Measuring Fairness in Computer
Vision [25.414154497482162]
拡散モデルを利用してそのようなデータセットを作成できることを実証する。
マルチクラスの職業分類タスクにおいて,複数の視覚言語モデルをベンチマークする。
非コーカサスラベルで生成された画像は、コーカサスラベルで生成された画像よりも、職業的誤分類率が高いことが判明した。
論文 参考訳(メタデータ) (2023-11-25T19:40:13Z) - Finetuning Text-to-Image Diffusion Models for Fairness [43.80733100304361]
公平性は分布的アライメント問題である。
経験的手法では、職業的プロンプトに対する性別、人種、およびそれらの交叉バイアスを著しく低減する。
我々の手法は絶対的平等を超えた公平性の多様な視点を支えている。
論文 参考訳(メタデータ) (2023-11-11T05:40:54Z) - Social Biases through the Text-to-Image Generation Lens [9.137275391251517]
テキスト・トゥ・イメージ(T2I)生成は、プロダクティビティソフトウェアのクリエーター、デザイナ、一般ユーザをサポートする新しいアプリケーションを可能にする。
生成した画像に反映された一般的な社会的偏見の研究と定量化に多次元的アプローチを採用する。
DALLE-v2とStable Diffusionの2つのT2Iモデルについて検討した。
論文 参考訳(メタデータ) (2023-03-30T05:29:13Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - DeAR: Debiasing Vision-Language Models with Additive Residuals [5.672132510411465]
大規模な事前学習型視覚言語モデル(VLM)は、リッチで適応可能な画像とテキスト表現を提供する。
これらのモデルは、トレーニングデータ中の様々なアイデンティティ群が歪んだ分布のため、社会的バイアスに悩まされる。
本稿では,元の表現をオフセットする付加的残像表現を学習する新しいデバイアス法であるDeARを提案する。
論文 参考訳(メタデータ) (2023-03-18T14:57:43Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。