論文の概要: The Male CEO and the Female Assistant: Probing Gender Biases in
Text-To-Image Models Through Paired Stereotype Test
- arxiv url: http://arxiv.org/abs/2402.11089v1
- Date: Fri, 16 Feb 2024 21:32:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 23:40:48.180186
- Title: The Male CEO and the Female Assistant: Probing Gender Biases in
Text-To-Image Models Through Paired Stereotype Test
- Title(参考訳): 男性CEOと女性アシスタント:Paired Stereotype Testによるテキストから画像モデルへのジェンダーバイアスの探索
- Authors: Yixin Wan, Kai-Wei Chang
- Abstract要約: DALLE-3のような最近の大規模テキスト・ツー・イメージ(T2I)モデルは、新しいアプリケーションにおいて大きな可能性を秘めているが、前例のない公平さの課題に直面している。
本稿では,Paired Stereotype Test (PST) のバイアス評価フレームワークを提案する。
以上の結果から,現代T2Iモデルにおける男女差の複雑なパターンが明らかとなり,マルチモーダル生成システムにおける批判的公平性の課題が浮き彫りになった。
- 参考スコア(独自算出の注目度): 68.84245853250906
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent large-scale Text-To-Image (T2I) models such as DALLE-3 demonstrate
great potential in new applications, but also face unprecedented fairness
challenges. Prior studies revealed gender biases in single-person image
generation, but T2I model applications might require portraying two or more
people simultaneously. Potential biases in this setting remain unexplored,
leading to fairness-related risks in usage. To study these underlying facets of
gender biases in T2I models, we propose a novel Paired Stereotype Test (PST)
bias evaluation framework. PST prompts the model to generate two individuals in
the same image. They are described with two social identities that are
stereotypically associated with the opposite gender. Biases can then be
measured by the level of conformation to gender stereotypes in generated
images. Using PST, we evaluate DALLE-3 from 2 perspectives: biases in gendered
occupation and biases in organizational power. Despite seemingly fair or even
anti-stereotype single-person generations, PST still unveils gendered
occupational and power associations. Moreover, compared to single-person
settings, DALLE-3 generates noticeably more masculine figures under PST for
individuals with male-stereotypical identities. PST is therefore effective in
revealing underlying gender biases in DALLE-3 that single-person settings
cannot capture. Our findings reveal the complicated patterns of gender biases
in modern T2I models, further highlighting the critical fairness challenges in
multimodal generative systems.
- Abstract(参考訳): DALLE-3のような最近の大規模テキスト・ツー・イメージ(T2I)モデルは、新しいアプリケーションにおいて大きな可能性を秘めているが、前例のない公平さの課題に直面している。
以前の研究では、単一人物画像生成における性別バイアスが明らかにされていたが、T2Iモデルは2人以上の人物を同時に表現する必要がある可能性がある。
この設定の潜在的なバイアスは未探索のままであり、フェアネス関連の使用リスクにつながる。
T2Iモデルにおけるこれらの性別バイアスの基盤となる側面を研究するために,新しいPaired Stereotype Test (PST) バイアス評価フレームワークを提案する。
PSTはモデルに同じ画像で2つの個人を生成するよう促す。
それらは、異性とステレオタイプ的に関連づけられた2つの社会的アイデンティティによって記述される。
ビアーゼは、生成された画像のジェンダーステレオタイプへのコンフォーメーションのレベルによって測定できる。
PSTを用いてDALLE-3を2つの視点から評価した。
公正な、あるいは反ステレオタイプな独身世代であるように見えるが、PSTは依然としてジェンダー化された職業や権力団体を誇示している。
さらに, DALLE-3は, 独身設定と比較して, 男性ステレオタイプ的同一性を持つ個人に対して, PST下では顕著に男性像が生成される。
したがって、PSTはDALLE-3の基本的な性別バイアスを明らかにするのに効果的である。
以上の結果から,現代T2Iモデルにおける男女差の複雑なパターンが明らかとなり,マルチモーダル生成システムにおける批判的公平性の課題が浮き彫りになった。
関連論文リスト
- Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Social Biases through the Text-to-Image Generation Lens [9.137275391251517]
テキスト・トゥ・イメージ(T2I)生成は、プロダクティビティソフトウェアのクリエーター、デザイナ、一般ユーザをサポートする新しいアプリケーションを可能にする。
生成した画像に反映された一般的な社会的偏見の研究と定量化に多次元的アプローチを採用する。
DALLE-v2とStable Diffusionの2つのT2Iモデルについて検討した。
論文 参考訳(メタデータ) (2023-03-30T05:29:13Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Stereotype and Skew: Quantifying Gender Bias in Pre-trained and
Fine-tuned Language Models [5.378664454650768]
本稿では,文脈言語モデルにおける性別バイアスの定量化と分析を行う,スキューとステレオタイプという2つの直感的な指標を提案する。
性別のステレオタイプは、アウト・オブ・ボックスモデルにおける性別の歪とほぼ負の相関関係にあり、これらの2種類のバイアスの間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-24T10:57:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。