論文の概要: New Job, New Gender? Measuring the Social Bias in Image Generation
Models
- arxiv url: http://arxiv.org/abs/2401.00763v1
- Date: Mon, 1 Jan 2024 14:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 15:58:20.315869
- Title: New Job, New Gender? Measuring the Social Bias in Image Generation
Models
- Title(参考訳): 新しい仕事、新しいジェンダー?
画像生成モデルにおける社会的バイアスの測定
- Authors: Wenxuan Wang, Haonan Bai, Jen-tse Huang, Yuxuan Wan, Youliang Yuan,
Haoyi Qiu, Nanyun Peng, Michael R. Lyu
- Abstract要約: 画像生成モデルは、与えられたテキストから画像を生成し、編集することができる。
DALL-EとMidjourneyによる画像生成技術の最近の進歩は画期的なものである。
これらの高度なモデルは、しばしば巨大なインターネットデータセットでトレーニングされており、社会的ステレオタイプとバイアスを永続するコンテンツを生成することに感受性がある。
画像生成モデルにおける社会的バイアスを的確に、かつ、包括的に引き起こすことのできる新しいテストフレームワークであるBiasPainterを提案する。
- 参考スコア(独自算出の注目度): 88.93677200602887
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Image generation models can generate or edit images from a given text. Recent
advancements in image generation technology, exemplified by DALL-E and
Midjourney, have been groundbreaking. These advanced models, despite their
impressive capabilities, are often trained on massive Internet datasets, making
them susceptible to generating content that perpetuates social stereotypes and
biases, which can lead to severe consequences. Prior research on assessing bias
within image generation models suffers from several shortcomings, including
limited accuracy, reliance on extensive human labor, and lack of comprehensive
analysis. In this paper, we propose BiasPainter, a novel metamorphic testing
framework that can accurately, automatically and comprehensively trigger social
bias in image generation models. BiasPainter uses a diverse range of seed
images of individuals and prompts the image generation models to edit these
images using gender, race, and age-neutral queries. These queries span 62
professions, 39 activities, 57 types of objects, and 70 personality traits. The
framework then compares the edited images to the original seed images, focusing
on any changes related to gender, race, and age. BiasPainter adopts a testing
oracle that these characteristics should not be modified when subjected to
neutral prompts. Built upon this design, BiasPainter can trigger the social
bias and evaluate the fairness of image generation models. To evaluate the
effectiveness of BiasPainter, we use BiasPainter to test five widely-used
commercial image generation software and models, such as stable diffusion and
Midjourney. Experimental results show that 100\% of the generated test cases
can successfully trigger social bias in image generation models.
- Abstract(参考訳): 画像生成モデルは、所定のテキストから画像を生成したり編集したりすることができる。
DALL-EとMidjourneyによる画像生成技術の最近の進歩は画期的なものである。
これらの高度なモデルは、その優れた能力にもかかわらず、しばしば巨大なインターネットデータセットで訓練され、社会的ステレオタイプやバイアスを持続するコンテンツの生成に影響を受けやすく、深刻な結果をもたらす可能性がある。
画像生成モデル内のバイアスの評価に関する以前の研究は、精度の制限、広範な人的労働への依存、包括的な分析の欠如など、いくつかの欠点に苦しめられている。
本稿では,画像生成モデルにおける社会的バイアスを正確かつ包括的に引き起こすことのできる,新しい変型テストフレームワークであるbiaspainterを提案する。
BiasPainterは、個人のさまざまなシード画像を使用し、画像生成モデルに、性別、人種、年齢ニュートラルなクエリを使ってこれらの画像を編集するよう促す。
これらの質問は62の職業、39のアクティビティ、57種類のオブジェクト、70のパーソナリティ特性にまたがる。
このフレームワークは、編集された画像をオリジナルのシード画像と比較し、性別、人種、年齢に関するあらゆる変化に焦点を当てる。
BiasPainterは、中立的なプロンプトを受ける際にこれらの特性を変更すべきでないというテストのオラクルを採用している。
この設計に基づいて、BiasPainterは社会的バイアスを引き起こし、画像生成モデルの公平性を評価することができる。
BiasPainterの有効性を評価するために,BiasPainterを用いて,安定拡散やMidjourneyなどの5種類の商用画像生成ソフトウェアとモデルをテストする。
実験結果から、生成したテストケースの100\%が、画像生成モデルにおける社会的バイアスをうまく引き起こせることが示された。
関連論文リスト
- Gender Bias Evaluation in Text-to-image Generation: A Survey [25.702257177921048]
テキスト・ツー・イメージ・ジェネレーションにおけるジェンダーバイアス評価に関する最近の研究についてレビューする。
安定拡散やDALL-E 2といった最近の人気モデルの評価に焦点をあてる。
論文 参考訳(メタデータ) (2024-08-21T06:01:23Z) - Would Deep Generative Models Amplify Bias in Future Models? [29.918422914275226]
今後のコンピュータビジョンモデルにおいて、深層生成モデルが潜在的な社会的バイアスに与える影響について検討する。
我々は,COCOおよびCC3Mデータセットの原画像に,安定拡散により生成された画像に代えてシミュレーションを行う。
予想とは対照的に、トレーニング中に生成された画像を導入することはバイアスを均一に増幅しないことを示す。
論文 参考訳(メタデータ) (2024-04-04T06:58:39Z) - Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - ImagenHub: Standardizing the evaluation of conditional image generation
models [48.51117156168]
本稿では,条件付き画像生成モデルの推論と評価を標準化するワンストップライブラリであるImagenHubを提案する。
本研究では,感性一貫性と知覚品質という2つの評価スコアと,生成した画像を評価するための包括的なガイドラインを設計する。
人間の評価は,0.4以上の値を持つ76%のモデル上で,クリッペンドルフのαに対する高い労働者間合意を達成する。
論文 参考訳(メタデータ) (2023-10-02T19:41:42Z) - Social Biases through the Text-to-Image Generation Lens [9.137275391251517]
テキスト・トゥ・イメージ(T2I)生成は、プロダクティビティソフトウェアのクリエーター、デザイナ、一般ユーザをサポートする新しいアプリケーションを可能にする。
生成した画像に反映された一般的な社会的偏見の研究と定量化に多次元的アプローチを採用する。
DALLE-v2とStable Diffusionの2つのT2Iモデルについて検討した。
論文 参考訳(メタデータ) (2023-03-30T05:29:13Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。