論文の概要: The Male CEO and the Female Assistant: Gender Biases in Text-To-Image Generation of Dual Subjects
- arxiv url: http://arxiv.org/abs/2402.11089v2
- Date: Wed, 19 Jun 2024 17:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 05:19:10.153646
- Title: The Male CEO and the Female Assistant: Gender Biases in Text-To-Image Generation of Dual Subjects
- Title(参考訳): 男性CEOと女性アシスタント:2つの被験者のテキスト・画像生成におけるジェンダー・バイアーズ
- Authors: Yixin Wan, Kai-Wei Chang,
- Abstract要約: 本稿では,T2Iモデルを二重オブジェクト生成設定で体系的に評価するPaired Stereotype Test (PST) フレームワークを提案する。
PSTは、二重オブジェクト生成タスク、すなわち、同じイメージで2人を生成するタスクである。
DALLE-3は、一見公平で反ステレオタイプな単体画像でも、PST下では顕著な偏見を示す。
- 参考スコア(独自算出の注目度): 58.27353205269664
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent large-scale T2I models like DALLE-3 have made progress on improving fairness in single-subject generation, i.e. generating a one-person image. However, we reveal that these improved models still demonstrate considerable biases when simply generating two people. To systematically evaluate T2I models in this challenging generation setting, we propose the Paired Stereotype Test (PST) framework, established as a dual-subject generation task, i.e. generating two people in the same image. The setting in PST is especially challenging, as the two individuals are described with social identities that are male-stereotyped and female-stereotyped, respectively, e.g. "a CEO" and "an Assistant". It is easy for T2I models to unfairly follow gender stereotypes in this contrastive setting. We establish a metric, Stereotype Score (SS), to quantitatively measure the adherence to gender stereotypes in generated images. Using PST, we evaluate two aspects of gender biases in DALLE-3 -- the widely-identified bias in gendered occupation, as well as a novel aspect: bias in organizational power. Results show that despite generating seemingly fair or even anti-stereotype single-person images, DALLE-3 still shows notable biases under PST -- for instance, in experiments on gender-occupational stereotypes, over 74% model generations demonstrate biases. Moreover, compared to single-person settings, DALLE-3 is more likely to perpetuate male-associated stereotypes under PST. Our work pioneers the research on bias in dual-subject generation, and our proposed PST framework can be easily extended for further experiments, establishing a valuable contribution.
- Abstract(参考訳): DALLE-3のような最近の大規模T2Iモデルでは、単一オブジェクト生成における公平性、すなわち1人画像の生成が進歩している。
しかし、これらの改善されたモデルが、単に2人を生成する際には、かなりのバイアスを示します。
この難易度生成環境でT2Iモデルを体系的に評価するために、同一画像中の2人を生成するという2つのオブジェクト生成タスクとして確立されたPaired Stereotype Test (PST) フレームワークを提案する。
PSTの設定は、それぞれ男性ステレオタイプと女性ステレオタイプである社会的アイデンティティ、例えば「CEO」と「アシスタント」で説明されるため、特に困難である。
T2Iモデルは、この対照的な設定で男女ステレオタイプを不公平に追従することは容易である。
我々は、生成画像中の性別ステレオタイプへの付着度を定量的に測定するために、Stereotype Score (SS) というメトリクスを確立した。
PSTを用いて, DALLE-3におけるジェンダーバイアスの2つの側面 – 性的職業における広く特定されたバイアス – と,新たな側面 – 組織力におけるバイアス – を評価する。
DALLE-3は、一見公正な、あるいは反ステレオタイプの1人称画像を生成するが、PSTの下では依然として顕著なバイアスを示しており、例えば、性別に占めるステレオタイプの実験では、74%以上のモデル世代がバイアスを見せている。
さらに、単体設定と比較して、DALLE-3はPSTの下で男性関連ステレオタイプを持続する傾向が強い。
我々の研究は、二重オブジェクト生成におけるバイアスの研究の先駆者であり、提案したPSTフレームワークは、さらなる実験のために容易に拡張することができ、貴重な貢献を確立することができる。
関連論文リスト
- Gender Bias Evaluation in Text-to-image Generation: A Survey [25.702257177921048]
テキスト・ツー・イメージ・ジェネレーションにおけるジェンダーバイアス評価に関する最近の研究についてレビューする。
安定拡散やDALL-E 2といった最近の人気モデルの評価に焦点をあてる。
論文 参考訳(メタデータ) (2024-08-21T06:01:23Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias
in Image Search [8.730027941735804]
我々は、画像検索において、独特なジェンダーバイアスを研究する。
検索画像は、ジェンダーニュートラルな自然言語クエリに対して、しばしば性別不均衡である。
我々は2つの新しいデバイアスのアプローチを導入する。
論文 参考訳(メタデータ) (2021-09-12T04:47:33Z) - Stereotype and Skew: Quantifying Gender Bias in Pre-trained and
Fine-tuned Language Models [5.378664454650768]
本稿では,文脈言語モデルにおける性別バイアスの定量化と分析を行う,スキューとステレオタイプという2つの直感的な指標を提案する。
性別のステレオタイプは、アウト・オブ・ボックスモデルにおける性別の歪とほぼ負の相関関係にあり、これらの2種類のバイアスの間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-24T10:57:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。