論文の概要: Do Existing Testing Tools Really Uncover Gender Bias in Text-to-Image Models?
- arxiv url: http://arxiv.org/abs/2501.15775v1
- Date: Mon, 27 Jan 2025 04:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:59:56.388749
- Title: Do Existing Testing Tools Really Uncover Gender Bias in Text-to-Image Models?
- Title(参考訳): 既存のテストツールで、テキストと画像のモデルにジェンダーバイアスが見つかるか?
- Authors: Yunbo Lyu, Zhou Yang, Yuqing Niu, Jing Jiang, David Lo,
- Abstract要約: これまでの研究で、テキスト・トゥ・イメージ(T2I)モデルは、中立的なテキスト・プロンプトが提供されると、性別のステレオタイプを永続的に、あるいは増幅することができることが示されている。
様々な検出器を包括的に比較し、それらによって検出された性別バイアスが実際の状況からどのように逸脱するかを理解する既存の研究は存在しない。
本研究では、手動ラベル付きデータセットを用いて、過去の性差検出器を検証し、T2Iモデルの実際のバイアスから、様々な検出器によって識別されたバイアスがどのように逸脱するかを比較することで、このギャップに対処する。
- 参考スコア(独自算出の注目度): 11.101062595569854
- License:
- Abstract: Text-to-Image (T2I) models have recently gained significant attention due to their ability to generate high-quality images and are consequently used in a wide range of applications. However, there are concerns about the gender bias of these models. Previous studies have shown that T2I models can perpetuate or even amplify gender stereotypes when provided with neutral text prompts. Researchers have proposed automated gender bias uncovering detectors for T2I models, but a crucial gap exists: no existing work comprehensively compares the various detectors and understands how the gender bias detected by them deviates from the actual situation. This study addresses this gap by validating previous gender bias detectors using a manually labeled dataset and comparing how the bias identified by various detectors deviates from the actual bias in T2I models, as verified by manual confirmation. We create a dataset consisting of 6,000 images generated from three cutting-edge T2I models: Stable Diffusion XL, Stable Diffusion 3, and Dreamlike Photoreal 2.0. During the human-labeling process, we find that all three T2I models generate a portion (12.48% on average) of low-quality images (e.g., generate images with no face present), where human annotators cannot determine the gender of the person. Our analysis reveals that all three T2I models show a preference for generating male images, with SDXL being the most biased. Additionally, images generated using prompts containing professional descriptions (e.g., lawyer or doctor) show the most bias. We evaluate seven gender bias detectors and find that none fully capture the actual level of bias in T2I models, with some detectors overestimating bias by up to 26.95%. We further investigate the causes of inaccurate estimations, highlighting the limitations of detectors in dealing with low-quality images. Based on our findings, we propose an enhanced detector...
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)モデルは近年,高品質な画像を生成する能力から注目され,幅広いアプリケーションで使用されている。
しかし、これらのモデルの性別バイアスには懸念がある。
これまでの研究で、T2Iモデルは中性テキストのプロンプトが提供されると、性別のステレオタイプを永続的に、あるいは増幅することができることが示されている。
研究者は、T2Iモデルの性別バイアスを自動的に発見することを提案したが、重要なギャップがある。
本研究は、手動ラベル付きデータセットを用いて過去の性差検出器を検証し、T2Iモデルの実際のバイアスから様々な検出器で識別されたバイアスがどのように逸脱するかを手動で検証することによって、このギャップに対処する。
我々は,3つの最先端T2Iモデルから生成される6000枚の画像からなるデータセット,安定拡散XL,安定拡散3,ドリームライクフォトリアル2.0を作成している。
人間のラベル付け過程において、3つのT2Iモデルすべてが低品質画像の一部(12.48%)を生成し(例えば、顔のない画像を生成する)、人間のアノテータは人の性別を決定できない。
解析の結果, SDXLが最も偏りが強い3つのT2Iモデルでは, 男性画像の生成が好まれることがわかった。
さらに、専門家の説明を含むプロンプト(例えば、弁護士や医師)を用いて生成された画像は、最も偏りを示す。
我々は7つの性バイアス検出器を評価し、T2Iモデルの実際のバイアスレベルを完全に捉えていないことを発見し、いくつかの検出器はバイアスを最大26.95%過大評価している。
さらに、不正確な推定の原因について検討し、低画質画像を扱う際の検出器の限界を強調した。
我々の発見に基づいて、我々は強化された検出器を提案する。
関連論文リスト
- How Do Generative Models Draw a Software Engineer? A Case Study on Stable Diffusion Bias [9.574645433491225]
我々は,ソフトウェア工学タスクに対する安定拡散モデルの3つのバージョンで表される性別と民族性バイアスを評価する。
結果は、すべてのモデルが、ソフトウェアエンジニアを代表する男性の数字に大きく偏っていることを示している。
しかしながら、すべてのモデルは、使用するプロンプトスタイルに関係なく、黒とアラブのフィギュアを著しく下回っている。
論文 参考訳(メタデータ) (2025-01-15T18:57:17Z) - Gender Bias Evaluation in Text-to-image Generation: A Survey [25.702257177921048]
テキスト・ツー・イメージ・ジェネレーションにおけるジェンダーバイアス評価に関する最近の研究についてレビューする。
安定拡散やDALL-E 2といった最近の人気モデルの評価に焦点をあてる。
論文 参考訳(メタデータ) (2024-08-21T06:01:23Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Collecting a Large-Scale Gender Bias Dataset for Coreference Resolution
and Machine Translation [10.542861450223128]
3つのドメインのコーパスにおいて,ステレオタイプおよび非ステレオタイプなジェンダーロール代入を示す文法パターンが発見された。
我々は、コーパスの品質を手動で検証し、様々なコア参照解像度と機械翻訳モデルにおける性別バイアスを評価する。
論文 参考訳(メタデータ) (2021-09-08T18:14:11Z) - UnQovering Stereotyping Biases via Underspecified Questions [68.81749777034409]
未特定質問からバイアスを探索・定量化するためのフレームワークUNQOVERを提案する。
モデルスコアの素直な使用は,2種類の推論誤差による誤ったバイアス推定につながる可能性があることを示す。
我々はこの指標を用いて、性別、国籍、民族、宗教の4つの重要なステレオタイプの分析を行う。
論文 参考訳(メタデータ) (2020-10-06T01:49:52Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。