論文の概要: Can we Debias Social Stereotypes in AI-Generated Images? Examining Text-to-Image Outputs and User Perceptions
- arxiv url: http://arxiv.org/abs/2505.20692v1
- Date: Tue, 27 May 2025 04:01:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.39582
- Title: Can we Debias Social Stereotypes in AI-Generated Images? Examining Text-to-Image Outputs and User Perceptions
- Title(参考訳): AI生成画像における社会的ステレオタイプを損なうか? : テキストから画像への出力とユーザ知覚の検討
- Authors: Saharsh Barve, Andy Mao, Jiayue Melissa Shi, Prerna Juneja, Koustuv Saha,
- Abstract要約: 本稿では,T2I出力の社会的バイアスを評価するために,理論駆動型バイアス検出ルーブリックと社会ステレオタイプ指標(SSI)を提案する。
我々は,T2Iモデルの3つの主要なアウトプットを,地理的・職業的・形容詞的な3つのカテゴリにわたる100のクエリを用いて監査した。
迅速な改良はステレオタイプを緩和するが、コンテキストアライメントを制限することができる。
- 参考スコア(独自算出の注目度): 6.87895735248661
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generative AI have enabled visual content creation through text-to-image (T2I) generation. However, despite their creative potential, T2I models often replicate and amplify societal stereotypes -- particularly those related to gender, race, and culture -- raising important ethical concerns. This paper proposes a theory-driven bias detection rubric and a Social Stereotype Index (SSI) to systematically evaluate social biases in T2I outputs. We audited three major T2I model outputs -- DALL-E-3, Midjourney-6.1, and Stability AI Core -- using 100 queries across three categories -- geocultural, occupational, and adjectival. Our analysis reveals that initial outputs are prone to include stereotypical visual cues, including gendered professions, cultural markers, and western beauty norms. To address this, we adopted our rubric to conduct targeted prompt refinement using LLMs, which significantly reduced bias -- SSI dropped by 61% for geocultural, 69% for occupational, and 51% for adjectival queries. We complemented our quantitative analysis through a user study examining perceptions, awareness, and preferences around AI-generated biased imagery. Our findings reveal a key tension -- although prompt refinement can mitigate stereotypes, it can limit contextual alignment. Interestingly, users often perceived stereotypical images to be more aligned with their expectations. We discuss the need to balance ethical debiasing with contextual relevance and call for T2I systems that support global diversity and inclusivity while not compromising the reflection of real-world social complexity.
- Abstract(参考訳): 生成AIの最近の進歩により、テキスト・ツー・イメージ(T2I)生成による視覚コンテンツ作成が可能になった。
しかし、その創造的な可能性にもかかわらず、T2Iモデルはしばしば社会的ステレオタイプ(特に性別、人種、文化に関連するもの)を複製し増幅し、重要な倫理的懸念を提起する。
本稿では,T2I出力における社会的バイアスを体系的に評価するための理論駆動型バイアス検出ルーブリックと社会ステレオタイプ指標(SSI)を提案する。
DALL-E-3、Midjourney-6.1、Stable AI Coreの3つの主要なT2Iモデルのアウトプットを、地理的、職業的、形容詞的な3つのカテゴリにわたる100のクエリを使って監査しました。
分析の結果,最初のアウトプットには,男女別職業,文化マーカー,西洋の美容基準など,ステレオタイプな視覚的手がかりが伴う傾向が示唆された。
そこで我々は,LLMを用いて目的の即時改善を行うことにより,偏見を著しく低減し,SSIはジオカルチャーでは61%,職業では69%,形容詞クエリでは51%に低下した。
我々は、AI生成バイアス画像に関する知覚、認識、嗜好を調査するユーザスタディを通じて、定量的分析を補完した。
迅速な改良はステレオタイプを緩和するが、コンテキストアライメントを制限することができる。
興味深いことに、ユーザーはしばしばステレオタイプ画像が期待に合致していると感じた。
我々は、現実世界の社会的複雑さの反映を損なうことなく、グローバルな多様性と傾きをサポートするT2Iシステムに対する、文脈的妥当性と倫理的デバイアスのバランスをとる必要性について議論する。
関連論文リスト
- FairT2I: Mitigating Social Bias in Text-to-Image Generation via Large Language Model-Assisted Detection and Attribute Rebalancing [32.01426831450348]
本稿では,T2I生成における社会的バイアスの検出と緩和に,大規模言語モデルを活用する新しいフレームワークであるFairT2Iを紹介する。
以上の結果から,FairT2Iは社会的偏見を緩和し,画像の感度特性の多様性を高めることができた。
論文 参考訳(メタデータ) (2025-02-06T07:22:57Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Social Biases through the Text-to-Image Generation Lens [9.137275391251517]
テキスト・トゥ・イメージ(T2I)生成は、プロダクティビティソフトウェアのクリエーター、デザイナ、一般ユーザをサポートする新しいアプリケーションを可能にする。
生成した画像に反映された一般的な社会的偏見の研究と定量化に多次元的アプローチを採用する。
DALLE-v2とStable Diffusionの2つのT2Iモデルについて検討した。
論文 参考訳(メタデータ) (2023-03-30T05:29:13Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。