論文の概要: The Male CEO and the Female Assistant: Probing Gender Biases in
Text-To-Image Models Through Paired Stereotype Test
- arxiv url: http://arxiv.org/abs/2402.11089v1
- Date: Fri, 16 Feb 2024 21:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 23:40:48.180186
- Title: The Male CEO and the Female Assistant: Probing Gender Biases in
Text-To-Image Models Through Paired Stereotype Test
- Title(参考訳): 男性CEOと女性アシスタント:Paired Stereotype Testによるテキストから画像モデルへのジェンダーバイアスの探索
- Authors: Yixin Wan, Kai-Wei Chang
- Abstract要約: DALLE-3のような最近の大規模テキスト・ツー・イメージ(T2I)モデルは、新しいアプリケーションにおいて大きな可能性を秘めているが、前例のない公平さの課題に直面している。
本稿では,Paired Stereotype Test (PST) のバイアス評価フレームワークを提案する。
以上の結果から,現代T2Iモデルにおける男女差の複雑なパターンが明らかとなり,マルチモーダル生成システムにおける批判的公平性の課題が浮き彫りになった。
- 参考スコア(独自算出の注目度): 68.84245853250906
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent large-scale Text-To-Image (T2I) models such as DALLE-3 demonstrate
great potential in new applications, but also face unprecedented fairness
challenges. Prior studies revealed gender biases in single-person image
generation, but T2I model applications might require portraying two or more
people simultaneously. Potential biases in this setting remain unexplored,
leading to fairness-related risks in usage. To study these underlying facets of
gender biases in T2I models, we propose a novel Paired Stereotype Test (PST)
bias evaluation framework. PST prompts the model to generate two individuals in
the same image. They are described with two social identities that are
stereotypically associated with the opposite gender. Biases can then be
measured by the level of conformation to gender stereotypes in generated
images. Using PST, we evaluate DALLE-3 from 2 perspectives: biases in gendered
occupation and biases in organizational power. Despite seemingly fair or even
anti-stereotype single-person generations, PST still unveils gendered
occupational and power associations. Moreover, compared to single-person
settings, DALLE-3 generates noticeably more masculine figures under PST for
individuals with male-stereotypical identities. PST is therefore effective in
revealing underlying gender biases in DALLE-3 that single-person settings
cannot capture. Our findings reveal the complicated patterns of gender biases
in modern T2I models, further highlighting the critical fairness challenges in
multimodal generative systems.
- Abstract(参考訳): DALLE-3のような最近の大規模テキスト・ツー・イメージ(T2I)モデルは、新しいアプリケーションにおいて大きな可能性を秘めているが、前例のない公平さの課題に直面している。
以前の研究では、単一人物画像生成における性別バイアスが明らかにされていたが、T2Iモデルは2人以上の人物を同時に表現する必要がある可能性がある。
この設定の潜在的なバイアスは未探索のままであり、フェアネス関連の使用リスクにつながる。
T2Iモデルにおけるこれらの性別バイアスの基盤となる側面を研究するために,新しいPaired Stereotype Test (PST) バイアス評価フレームワークを提案する。
PSTはモデルに同じ画像で2つの個人を生成するよう促す。
それらは、異性とステレオタイプ的に関連づけられた2つの社会的アイデンティティによって記述される。
ビアーゼは、生成された画像のジェンダーステレオタイプへのコンフォーメーションのレベルによって測定できる。
PSTを用いてDALLE-3を2つの視点から評価した。
公正な、あるいは反ステレオタイプな独身世代であるように見えるが、PSTは依然としてジェンダー化された職業や権力団体を誇示している。
さらに, DALLE-3は, 独身設定と比較して, 男性ステレオタイプ的同一性を持つ個人に対して, PST下では顕著に男性像が生成される。
したがって、PSTはDALLE-3の基本的な性別バイアスを明らかにするのに効果的である。
以上の結果から,現代T2Iモデルにおける男女差の複雑なパターンが明らかとなり,マルチモーダル生成システムにおける批判的公平性の課題が浮き彫りになった。
関連論文リスト
- Gender Bias Evaluation in Text-to-image Generation: A Survey [25.702257177921048]
テキスト・ツー・イメージ・ジェネレーションにおけるジェンダーバイアス評価に関する最近の研究についてレビューする。
安定拡散やDALL-E 2といった最近の人気モデルの評価に焦点をあてる。
論文 参考訳(メタデータ) (2024-08-21T06:01:23Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias
in Image Search [8.730027941735804]
我々は、画像検索において、独特なジェンダーバイアスを研究する。
検索画像は、ジェンダーニュートラルな自然言語クエリに対して、しばしば性別不均衡である。
我々は2つの新しいデバイアスのアプローチを導入する。
論文 参考訳(メタデータ) (2021-09-12T04:47:33Z) - Stereotype and Skew: Quantifying Gender Bias in Pre-trained and
Fine-tuned Language Models [5.378664454650768]
本稿では,文脈言語モデルにおける性別バイアスの定量化と分析を行う,スキューとステレオタイプという2つの直感的な指標を提案する。
性別のステレオタイプは、アウト・オブ・ボックスモデルにおける性別の歪とほぼ負の相関関係にあり、これらの2種類のバイアスの間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-24T10:57:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。