論文の概要: Stable Diffusion Exposed: Gender Bias from Prompt to Image
- arxiv url: http://arxiv.org/abs/2312.03027v1
- Date: Tue, 5 Dec 2023 10:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 17:27:54.144410
- Title: Stable Diffusion Exposed: Gender Bias from Prompt to Image
- Title(参考訳): 安定拡散が露呈:プロンプトからイメージへのジェンダーバイアス
- Authors: Yankun Wu, Yuta Nakashima, Noa Garcia
- Abstract要約: 本稿では,性別指標が安定拡散画像に与える影響を分析するための評価プロトコルを提案する。
本研究の結果は,特定の性別に合わせて調整された楽器など,物体の描写に違いがあることが示唆された。
また、中性的なプロンプトは、女性よりも男性的なプロンプトと整合したイメージを生成する傾向があることも明らかにした。
- 参考スコア(独自算出の注目度): 28.88676131961107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have highlighted biases in generative models, shedding light
on their predisposition towards gender-based stereotypes and imbalances. This
paper contributes to this growing body of research by introducing an evaluation
protocol designed to automatically analyze the impact of gender indicators on
Stable Diffusion images. Leveraging insights from prior work, we explore how
gender indicators not only affect gender presentation but also the
representation of objects and layouts within the generated images. Our findings
include the existence of differences in the depiction of objects, such as
instruments tailored for specific genders, and shifts in overall layouts. We
also reveal that neutral prompts tend to produce images more aligned with
masculine prompts than their feminine counterparts, providing valuable insights
into the nuanced gender biases inherent in Stable Diffusion.
- Abstract(参考訳): 近年の研究では、生成モデルにおけるバイアスが強調され、性別に基づくステレオタイプや不均衡に対する偏見に光を当てている。
本稿では, 安定拡散画像に対する性別指標の影響を自動的に解析する評価プロトコルを導入することで, 本研究の進展に寄与する。
先行研究から得た知見を活かし、性別指標が性別表現だけでなく、生成された画像内のオブジェクトやレイアウトの表現にどのように影響するかを考察する。
本研究の成果は,特定の性別に合わせて調整された楽器や,全体のレイアウトの変化など,物体の描写の違いの存在である。
また,中性プロンプトは,女性プロンプトよりも男性プロンプトに近い画像を生成する傾向にあり,安定拡散に内在するニュアンス性バイアスに対する貴重な洞察を与える。
関連論文リスト
- Gender Bias in Instruction-Guided Speech Synthesis Models [55.2480439325792]
本研究では、モデルが職業関連プロンプトをどのように解釈するかにおける潜在的な性別バイアスについて検討する。
このようなプロンプトを解釈する際に、これらのモデルがジェンダーステレオタイプを増幅する傾向を示すかどうかを検討する。
実験の結果, ある職業において, 性別偏見を示す傾向が示された。
論文 参考訳(メタデータ) (2025-02-08T17:38:24Z) - Gender Bias in Text-to-Video Generation Models: A case study of Sora [63.064204206220936]
本研究では,OpenAIのテキスト・ビデオ生成モデルであるSoraにおけるジェンダーバイアスの存在について検討した。
性別ニュートラルとステレオタイププロンプトの多種多様なセットから生成されたビデオを分析し、バイアスの有意な証拠を明らかにした。
論文 参考訳(メタデータ) (2024-12-30T18:08:13Z) - Descriptions of women are longer than that of men: An analysis of gender portrayal prompts in Stable Diffusion [0.0]
われわれは、Discordで男女を描写した180万件以上のプロンプトを分析している。
ストロングやラグドといった支配的な特徴を用いて男性が記述される古典的なステレオタイプを見いだす。
女性は身体や提出に関する概念で表現される:「美人」「美人」など。
論文 参考訳(メタデータ) (2024-11-28T08:48:05Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Gender Artifacts in Visual Datasets [34.74191865400569]
大規模なビジュアルデータセット内には、$textitgender アーティファクト$が何であるかを調査する。
性別のアーティファクトは、COCOとOpenImagesのデータセットでユビキタスであることが分かりました。
このようなデータセットから性別のアーティファクトを取り除こうとする試みは、ほぼ不可能である、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-18T12:09:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。