論文の概要: Evaluating and comparing gender bias across four text-to-image models
- arxiv url: http://arxiv.org/abs/2509.08004v1
- Date: Sun, 07 Sep 2025 22:15:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.195533
- Title: Evaluating and comparing gender bias across four text-to-image models
- Title(参考訳): 4つのテキスト・画像モデルにおける性別バイアスの評価と比較
- Authors: Zoya Hammad, Nii Longdon Sowah,
- Abstract要約: 我々は、さまざまなテキスト・ツー・イメージAIモデルを評価し、それらが提示する性別バイアスの程度を比較した。
両モデルとも男女差が顕著であり,Emuはバランスの取れた結果を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As we increasingly use Artificial Intelligence (AI) in decision-making for industries like healthcare, finance, e-commerce, and even entertainment, it is crucial to also reflect on the ethical aspects of AI, for example the inclusivity and fairness of the information it provides. In this work, we aimed to evaluate different text-to-image AI models and compare the degree of gender bias they present. The evaluated models were Stable Diffusion XL (SDXL), Stable Diffusion Cascade (SC), DALL-E and Emu. We hypothesized that DALL-E and Stable Diffusion, which are comparatively older models, would exhibit a noticeable degree of gender bias towards men, while Emu, which was recently released by Meta AI, would have more balanced results. As hypothesized, we found that both Stable Diffusion models exhibit a noticeable degree of gender bias while Emu demonstrated more balanced results (i.e. less gender bias). However, interestingly, Open AI's DALL-E exhibited almost opposite results, such that the ratio of women to men was significantly higher in most cases tested. Here, although we still observed a bias, the bias favored females over males. This bias may be explained by the fact that OpenAI changed the prompts at its backend, as observed during our experiment. We also observed that Emu from Meta AI utilized user information while generating images via WhatsApp. We also proposed some potential solutions to avoid such biases, including ensuring diversity across AI research teams and having diverse datasets.
- Abstract(参考訳): 医療、金融、eコマース、そしてエンターテイメントといった産業における意思決定に人工知能(AI)をますます利用しているため、AIの倫理的側面、例えば、提供される情報の傾向と公正性にも反映することが重要です。
本研究では,さまざまなテキスト・ツー・イメージAIモデルを評価し,現在あるジェンダーバイアスの程度を比較することを目的とした。
評価モデルは, 安定拡散XL (SDXL), 安定拡散カスケード (SC), DALL-E, Emuであった。
比較的古いモデルであるDALL-EとStable Diffusionは男性に対して顕著な男女差を示し、Meta AIが最近リリースしたEmuはバランスのとれた結果をもたらすと仮定した。
仮説として、両モデルとも男女差の顕著な程度を示し、Emuはよりバランスの取れた結果(つまり、男女差の少ない)を示した。
しかし、興味深いことに、Open AIのDALL-Eはほとんど逆の結果を示し、ほとんどのケースでは女性と男性の割合が著しく高かった。
ここでは、まだ偏見が観察されているものの、偏見はオスよりもメスの方が好まれていた。
このバイアスは、実験で観察したように、OpenAIがバックエンドでプロンプトを変更したという事実によって説明できる。
また,Meta AIのEmuでは,WhatsAppで画像を生成しながらユーザ情報を利用した。
また、AI研究チーム間の多様性の確保や、さまざまなデータセットを持つなど、このようなバイアスを避けるための潜在的なソリューションも提案しました。
関連論文リスト
- AI Will Always Love You: Studying Implicit Biases in Romantic AI Companions [5.71188974897642]
本研究の目的は,基本ラインに対するペルソナ指定モデル応答を定量的に分析することにより,異なる協調システムに現れるバイアスを測定し,比較することである。
これらの結果は、男女関係のペルソナを大規模言語モデルに割り当てることによって、これらのモデルの反応や特定の状況において、偏りがあり、ステレオタイプ的な方法で著しく変化することを示します。
論文 参考訳(メタデータ) (2025-02-27T16:16:37Z) - MoESD: Mixture of Experts Stable Diffusion to Mitigate Gender Bias [23.10522891268232]
テキスト・ツー・イメージ・モデルにおいて、ジェンダーバイアスを軽減するためのMixture-of-Expertsアプローチを導入する。
画像品質を維持しながら, 性別偏見の軽減に成功していることを示す。
論文 参考訳(メタデータ) (2024-06-25T14:59:31Z) - Bias in Generative AI [2.5830293457323266]
本研究では、AIジェネレータの潜在的なバイアスを調べるために、3つの一般的な生成人工知能(AI)ツールによって生成された画像を分析した。
3つのAIジェネレータはすべて、女性とアフリカ系アメリカ人に対する偏見を示しました。
女性はより笑顔と幸福で若く描かれ、男性はより中立な表情と怒りで年上のように描かれていた。
論文 参考訳(メタデータ) (2024-03-05T07:34:41Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Fewer Errors, but More Stereotypes? The Effect of Model Size on Gender
Bias [5.077090615019091]
モデルサイズと性別バイアスの関係について検討する。
一方、より大きなモデルでは、前者のタスクにより高いバイアススコアが与えられるが、後者で評価すると、性別エラーが少なくなる。
論文 参考訳(メタデータ) (2022-06-20T15:52:40Z) - Do Neural Ranking Models Intensify Gender Bias? [13.37092521347171]
まず、IRモデルのランキングリストにおいて、性別関連概念の非バランスの存在度を定量化するための2つの指標を含むバイアス測定フレームワークを提供する。
これらのクエリをMS MARCOパッセージ検索コレクションに適用し、BM25モデルと最近のニューラルランキングモデルの性別バイアスを測定する。
結果は、すべてのモデルが男性に対して強く偏りを呈する一方で、神経モデル、特に文脈化された埋め込みモデルに基づくモデルは、性バイアスを著しく強めていることを示している。
論文 参考訳(メタデータ) (2020-05-01T13:31:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。