論文の概要: How Do Generative Models Draw a Software Engineer? A Case Study on Stable Diffusion Bias
- arxiv url: http://arxiv.org/abs/2501.09014v1
- Date: Wed, 15 Jan 2025 18:57:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:53:36.450975
- Title: How Do Generative Models Draw a Software Engineer? A Case Study on Stable Diffusion Bias
- Title(参考訳): 生成モデルはソフトウェアエンジニアをどう引き起こすか? 安定拡散バイアスのケーススタディ
- Authors: Tosin Fadahunsi, Giordano d'Aloisio, Antinisca Di Marco, Federica Sarro,
- Abstract要約: 我々は,ソフトウェア工学タスクに対する安定拡散モデルの3つのバージョンで表される性別と民族性バイアスを評価する。
結果は、すべてのモデルが、ソフトウェアエンジニアを代表する男性の数字に大きく偏っていることを示している。
しかしながら、すべてのモデルは、使用するプロンプトスタイルに関係なく、黒とアラブのフィギュアを著しく下回っている。
- 参考スコア(独自算出の注目度): 9.574645433491225
- License:
- Abstract: Generative models are nowadays widely used to generate graphical content used for multiple purposes, e.g. web, art, advertisement. However, it has been shown that the images generated by these models could reinforce societal biases already existing in specific contexts. In this paper, we focus on understanding if this is the case when one generates images related to various software engineering tasks. In fact, the Software Engineering (SE) community is not immune from gender and ethnicity disparities, which could be amplified by the use of these models. Hence, if used without consciousness, artificially generated images could reinforce these biases in the SE domain. Specifically, we perform an extensive empirical evaluation of the gender and ethnicity bias exposed by three versions of the Stable Diffusion (SD) model (a very popular open-source text-to-image model) - SD 2, SD XL, and SD 3 - towards SE tasks. We obtain 6,720 images by feeding each model with two sets of prompts describing different software-related tasks: one set includes the Software Engineer keyword, and one set does not include any specification of the person performing the task. Next, we evaluate the gender and ethnicity disparities in the generated images. Results show how all models are significantly biased towards male figures when representing software engineers. On the contrary, while SD 2 and SD XL are strongly biased towards White figures, SD 3 is slightly more biased towards Asian figures. Nevertheless, all models significantly under-represent Black and Arab figures, regardless of the prompt style used. The results of our analysis highlight severe concerns about adopting those models to generate content for SE tasks and open the field for future research on bias mitigation in this context.
- Abstract(参考訳): 生成モデルは現在、Web、アート、広告など、複数の目的に使用されるグラフィカルコンテンツを生成するために広く使用されている。
しかし、これらのモデルによって生成された画像は、すでに特定の文脈に存在する社会的バイアスを強化する可能性があることが示されている。
本稿では,様々なソフトウェアエンジニアリングタスクに関連する画像を生成する場合の理解に焦点をあてる。
実際、ソフトウェア工学(SE)コミュニティは、性別と民族格差に免疫がなく、これらのモデルを使用することによって増幅される可能性がある。
したがって、意識なく使用すれば、人工的に生成された画像はSEドメイン内のこれらのバイアスを強化することができる。
具体的には、Stable Diffusion(SD)モデル(非常に人気のあるオープンソーステキスト・ツー・イメージ・モデル)の3つのバージョンで表される性別と民族性バイアスを、SEタスクに向けて広範囲に評価する。
我々は、各モデルに異なるソフトウェア関連のタスクを記述する2つのプロンプトを付けて、6,720個の画像を得る: 1つのセットは、ソフトウェアエンジニアのキーワードを含み、1つのセットは、タスクを実行する人の仕様を含まない。
次に、生成した画像の性別と民族格差を評価する。
結果は、すべてのモデルが、ソフトウェアエンジニアを代表する男性の数字に大きく偏っていることを示している。
逆に、SD 2 と SD XL は白人に強く偏っているが、SD 3 はアジア人にはやや偏っている。
にもかかわらず、全てのモデルは、使用するプロンプトのスタイルに関わらず、黒とアラブのフィギュアを著しく下回っている。
分析の結果、これらのモデルを用いてSEタスクのコンテンツを生成し、将来のバイアス緩和研究の場を開くことについて、深刻な懸念が浮かび上がっている。
関連論文リスト
- Fact-or-Fair: A Checklist for Behavioral Testing of AI Models on Fairness-Related Queries [85.909363478929]
本研究では,権威ある情報源から収集した19の実世界統計に着目した。
主観的および主観的な問合せからなるチェックリストを作成し,大規模言語モデルの振る舞いを解析する。
事実性と公平性を評価するためのメトリクスを提案し、これらの2つの側面の間に固有のトレードオフを正式に証明する。
論文 参考訳(メタデータ) (2025-02-09T10:54:11Z) - Do Existing Testing Tools Really Uncover Gender Bias in Text-to-Image Models? [11.101062595569854]
これまでの研究で、テキスト・トゥ・イメージ(T2I)モデルは、中立的なテキスト・プロンプトが提供されると、性別のステレオタイプを永続的に、あるいは増幅することができることが示されている。
様々な検出器を包括的に比較し、それらによって検出された性別バイアスが実際の状況からどのように逸脱するかを理解する既存の研究は存在しない。
本研究では、手動ラベル付きデータセットを用いて、過去の性差検出器を検証し、T2Iモデルの実際のバイアスから、様々な検出器によって識別されたバイアスがどのように逸脱するかを比較することで、このギャップに対処する。
論文 参考訳(メタデータ) (2025-01-27T04:47:19Z) - VersusDebias: Universal Zero-Shot Debiasing for Text-to-Image Models via SLM-Based Prompt Engineering and Generative Adversary [8.24274551090375]
本稿では,任意のテキスト・トゥ・イメージ(T2I)モデルにおけるバイアスに対する新奇で普遍的なデバイアスフレームワークであるVersusDebiasを紹介する。
自己適応モジュールは、プロセス後の幻覚と複数の属性を同時にデバイアスする特別な属性配列を生成する。
ゼロショットと少数ショットの両方のシナリオでは、VersusDebiasは既存のメソッドよりも優れており、例外的なユーティリティを示している。
論文 参考訳(メタデータ) (2024-07-28T16:24:07Z) - MoESD: Mixture of Experts Stable Diffusion to Mitigate Gender Bias [23.10522891268232]
テキスト・ツー・イメージ・モデルにおいて、ジェンダーバイアスを軽減するためのMixture-of-Expertsアプローチを導入する。
画像品質を維持しながら, 性別偏見の軽減に成功していることを示す。
論文 参考訳(メタデータ) (2024-06-25T14:59:31Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - New Job, New Gender? Measuring the Social Bias in Image Generation Models [85.26441602999014]
画像生成モデルは、社会的ステレオタイプとバイアスを永続するコンテンツを生成できる。
画像生成モデルにおける社会的バイアスを的確に、かつ、かつ、包括的に引き起こすことのできるフレームワークであるBiasPainterを提案する。
BiasPainterは、自動バイアス検出において90.8%の精度を達成することができる。
論文 参考訳(メタデータ) (2024-01-01T14:06:55Z) - Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - Social Biases through the Text-to-Image Generation Lens [9.137275391251517]
テキスト・トゥ・イメージ(T2I)生成は、プロダクティビティソフトウェアのクリエーター、デザイナ、一般ユーザをサポートする新しいアプリケーションを可能にする。
生成した画像に反映された一般的な社会的偏見の研究と定量化に多次元的アプローチを採用する。
DALLE-v2とStable Diffusionの2つのT2Iモデルについて検討した。
論文 参考訳(メタデータ) (2023-03-30T05:29:13Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。