論文の概要: A Large Scale Analysis of Gender Biases in Text-to-Image Generative Models
- arxiv url: http://arxiv.org/abs/2503.23398v1
- Date: Sun, 30 Mar 2025 11:11:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.101849
- Title: A Large Scale Analysis of Gender Biases in Text-to-Image Generative Models
- Title(参考訳): テキスト・画像生成モデルにおけるジェンダーバイアスの大規模解析
- Authors: Leander Girrbach, Stephan Alaniz, Genevieve Smith, Zeynep Akata,
- Abstract要約: 本稿では,テキスト・ツー・イメージ(T2I)モデルにおける性別バイアスに関する大規模な研究について述べる。
我々は3,217のジェンダーニュートラルプロンプトのデータセットを作成し、5つの主要なT2Iモデルから1プロンプトあたり200画像を生成する。
生成した画像中の知覚された人物の性別を自動的に検出し、性別の異なる人物や複数の人物の像をフィルタリングする。
- 参考スコア(独自算出の注目度): 45.55471356313678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing use of image generation technology, understanding its social biases, including gender bias, is essential. This paper presents the first large-scale study on gender bias in text-to-image (T2I) models, focusing on everyday situations. While previous research has examined biases in occupations, we extend this analysis to gender associations in daily activities, objects, and contexts. We create a dataset of 3,217 gender-neutral prompts and generate 200 images per prompt from five leading T2I models. We automatically detect the perceived gender of people in the generated images and filter out images with no person or multiple people of different genders, leaving 2,293,295 images. To enable a broad analysis of gender bias in T2I models, we group prompts into semantically similar concepts and calculate the proportion of male- and female-gendered images for each prompt. Our analysis shows that T2I models reinforce traditional gender roles, reflect common gender stereotypes in household roles, and underrepresent women in financial related activities. Women are predominantly portrayed in care- and human-centered scenarios, and men in technical or physical labor scenarios.
- Abstract(参考訳): 画像生成技術の利用が増えるにつれて、性別バイアスを含む社会的バイアスを理解することが不可欠である。
本稿では,テキスト・ツー・イメージ(T2I)モデルにおける性別バイアスに関する大規模な研究を,日常の状況に着目して行った。
これまでの研究では、職業の偏見を調査してきたが、この分析を日々の行動、対象、文脈における性関係にまで拡張した。
我々は3,217のジェンダーニュートラルプロンプトのデータセットを作成し、5つの主要なT2Iモデルから1プロンプトあたり200画像を生成する。
生成画像中の知覚された人物の性別を自動的に検出し、性別の異なる人物や複数の人物の画像をフィルタリングし、2,293,295個の画像を残した。
T2Iモデルにおいて、男女差を広範囲に分析するために、意味論的に類似した概念にプロンプトをグループ化し、各プロンプトに対して男女比を算出する。
分析の結果、T2Iモデルは伝統的なジェンダーの役割を強化し、家庭における一般的なジェンダーステレオタイプを反映し、金融関連の活動において女性を過小評価していることがわかった。
女性は主にケアや人間中心のシナリオで描かれ、男性は技術または肉体的な労働シナリオで描かれる。
関連論文リスト
- GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Stable Diffusion Exposed: Gender Bias from Prompt to Image [25.702257177921048]
本稿では,安定拡散画像における生成過程の各ステップにおける性別指標の影響を解析する評価プロトコルを提案する。
以上の結果から,特定の性別に合わせて調整された楽器や,全体のレイアウトの変化など,物体の描写の違いの存在が示唆された。
論文 参考訳(メタデータ) (2023-12-05T10:12:59Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Smiling Women Pitching Down: Auditing Representational and
Presentational Gender Biases in Image Generative AI [0.6990493129893111]
153職種にまたがる15,300 DALL-E 2画像における2つの職業性バイアスの頻度について検討した。
DALL-E 2は、女性支配領域において女性を過剰に表現し、女性支配領域において女性を過剰に表現する。
本研究は,DALL-E 2における表現バイアスと提示バイアスを,Google Imagesと比較して明らかにした。
論文 参考訳(メタデータ) (2023-05-17T20:59:10Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias
in Image Search [8.730027941735804]
我々は、画像検索において、独特なジェンダーバイアスを研究する。
検索画像は、ジェンダーニュートラルな自然言語クエリに対して、しばしば性別不均衡である。
我々は2つの新しいデバイアスのアプローチを導入する。
論文 参考訳(メタデータ) (2021-09-12T04:47:33Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。