論文の概要: 'Person' == Light-skinned, Western Man, and Sexualization of Women of
Color: Stereotypes in Stable Diffusion
- arxiv url: http://arxiv.org/abs/2310.19981v2
- Date: Fri, 10 Nov 2023 18:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 17:11:43.071238
- Title: 'Person' == Light-skinned, Western Man, and Sexualization of Women of
Color: Stereotypes in Stable Diffusion
- Title(参考訳): 「人」=光肌、西洋男性、有色女性のセクシュアリゼーション--安定拡散におけるステレオタイプ
- Authors: Sourojit Ghosh, Aylin Caliskan
- Abstract要約: 我々は、最も人気のあるテキスト・画像生成装置の1つに埋め込まれたステレオタイプについて研究する。
性別・国籍・大陸アイデンティティのステレオタイプが,そのような情報がない状態で安定拡散表示を行うかを検討する。
- 参考スコア(独自算出の注目度): 5.870257045294649
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study stereotypes embedded within one of the most popular text-to-image
generators: Stable Diffusion. We examine what stereotypes of gender and
nationality/continental identity does Stable Diffusion display in the absence
of such information i.e. what gender and nationality/continental identity is
assigned to `a person', or to `a person from Asia'. Using vision-language model
CLIP's cosine similarity to compare images generated by CLIP-based Stable
Diffusion v2.1 verified by manual examination, we chronicle results from 136
prompts (50 results/prompt) of front-facing images of persons from 6 different
continents, 27 nationalities and 3 genders. We observe how Stable Diffusion
outputs of `a person' without any additional gender/nationality information
correspond closest to images of men and least with persons of nonbinary gender,
and to persons from Europe/North America over Africa/Asia, pointing towards
Stable Diffusion having a concerning representation of personhood to be a
European/North American man. We also show continental stereotypes and resultant
harms e.g. a person from Oceania is deemed to be Australian/New Zealander over
Papua New Guinean, pointing to the erasure of Indigenous Oceanic peoples, who
form a majority over descendants of colonizers both in Papua New Guinea and in
Oceania overall. Finally, we unexpectedly observe a pattern of
oversexualization of women, specifically Latin American, Mexican, Indian and
Egyptian women relative to other nationalities, measured through an NSFW
detector. This demonstrates how Stable Diffusion perpetuates Western
fetishization of women of color through objectification in media, which if left
unchecked will amplify this stereotypical representation. Image datasets are
made publicly available.
- Abstract(参考訳): 我々は、最も人気のあるテキスト・画像生成装置の1つに埋め込まれたステレオタイプについて研究する。
本研究では,性別・国籍・大陸アイデンティティのステレオタイプが,どのような性別・国籍・大陸アイデンティティが「人」に割り当てられているか,あるいは「アジア出身者」にどのような性別・国籍・大陸アイデンティティが割り当てられているかを示す。
視覚言語モデルクリップのコサイン類似性を用いて,クリップベース安定拡散v2.1で生成した画像を手作業による検査で比較した。
我々は,男女・国籍情報のない「人」の安定拡散が,男性像,少なくとも非二元性イメージ,アフリカ・アジア上空のヨーロッパ・北米の人物とどのように一致しているかを観察し,人格表現を欧州・北米の男性に向けた。
また,パプアニューギニアとオセアニア全体の両方の植民者の子孫に対して多数を占める先住民族が絶滅したことを指摘して,オセアニアの人がオーストラリア/ニュージーランド人であると考えられるような大陸のステレオタイプと結果としての被害を示す。
最後に,女性,特にラテンアメリカ人,メキシコ人,インド人,エジプト人の他民族に対する過性化のパターンを,NSFW検出器で測定した。
このことは、安定拡散が、メディアにおける客観化を通じて、西洋の色の女性のフェティシュ化を持続させることを示す。
イメージデータセットは公開されています。
関連論文リスト
- Interpretations, Representations, and Stereotypes of Caste within Text-to-Image Generators [0.0]
本稿では,T2I研究における悲劇的に未解明な文脈を取り巻く解釈,表現,ステレオタイプについて述べる。
我々は、T2I安定拡散が、様々なキャストの人々をいかに表示するか、そして、彼らが演じている職業をどう表現するかを考察する。
以上の結果から, 安定拡散は「キャスタレスネス」の系を永久に出力し, 高いキャスタネスと同一視し, 貧困の指標とキャスタブルに抑圧されたアイデンティティを表現していることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-02T22:06:41Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性が黒い肌でひげを生やし、伝統的な頭飾りを身に着けているという、重要な人種的均質化を明らかにしている。
事前に登録された実験を用いて、包括的AI生成顔で提示されることで、人々の人種的および性別的偏見が減少し、非包括的偏見が提示されることで、そのような偏見が増大することを示した。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - ViSAGe: A Global-Scale Analysis of Visual Stereotypes in Text-to-Image Generation [24.862839173648467]
我々は、T2Iモデルにおける国籍に基づくステレオタイプの評価を可能にするために、ViSAGeデータセットを導入する。
また, 他の属性と比較して, ViSAGe のステレオタイプ属性は, 対応するアイデンティティの生成画像中に存在する可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-12T00:43:57Z) - Stable Diffusion Exposed: Gender Bias from Prompt to Image [25.702257177921048]
本稿では,安定拡散画像における生成過程の各ステップにおける性別指標の影響を解析する評価プロトコルを提案する。
以上の結果から,特定の性別に合わせて調整された楽器や,全体のレイアウトの変化など,物体の描写の違いの存在が示唆された。
論文 参考訳(メタデータ) (2023-12-05T10:12:59Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。