論文の概要: T2IAT: Measuring Valence and Stereotypical Biases in Text-to-Image
Generation
- arxiv url: http://arxiv.org/abs/2306.00905v1
- Date: Thu, 1 Jun 2023 17:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 14:29:54.123786
- Title: T2IAT: Measuring Valence and Stereotypical Biases in Text-to-Image
Generation
- Title(参考訳): T2IAT:テキスト・画像生成における妥当性とステレオタイプビアーゼの測定
- Authors: Jialu Wang, Xinyue Gabby Liu, Zonglin Di, Yang Liu, Xin Eric Wang
- Abstract要約: 本稿では,概念とイメージ間の暗黙的なステレオタイプを定量化する新しいテキスト・ツー・イメージ・アソシエーション・テスト(T2IAT)フレームワークを提案する。
我々は、前述した生成モデルに対するバイアステストを再現し、花や昆虫に対する道徳的に中立なテストを含む。
これらの実験の結果は、画像生成における複雑なステレオタイプ的挙動の存在を実証している。
- 参考スコア(独自算出の注目度): 11.109588924016254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Warning: This paper contains several contents that may be toxic, harmful, or
offensive.
In the last few years, text-to-image generative models have gained remarkable
success in generating images with unprecedented quality accompanied by a
breakthrough of inference speed. Despite their rapid progress, human biases
that manifest in the training examples, particularly with regard to common
stereotypical biases, like gender and skin tone, still have been found in these
generative models. In this work, we seek to measure more complex human biases
exist in the task of text-to-image generations. Inspired by the well-known
Implicit Association Test (IAT) from social psychology, we propose a novel
Text-to-Image Association Test (T2IAT) framework that quantifies the implicit
stereotypes between concepts and valence, and those in the images. We replicate
the previously documented bias tests on generative models, including morally
neutral tests on flowers and insects as well as demographic stereotypical tests
on diverse social attributes. The results of these experiments demonstrate the
presence of complex stereotypical behaviors in image generations.
- Abstract(参考訳): 警告: 本論文は、有害、有害、または攻撃的ないくつかの内容を含む。
近年,テキストから画像への生成モデルは,予測速度の突破とともに,前例のない画質の画像を生成できることに成功している。
その急速な進歩にもかかわらず、トレーニング例で現れる人間のバイアス、特にジェンダーや肌のトーンのような一般的なステレオタイプバイアスは、これらの生成モデルで発見されている。
本研究では,テキスト・ツー・画像世代における課題において,より複雑な人間のバイアスを測定することを目的とする。
社会心理学の有名な暗黙的関連テスト(iat)に触発されて,概念と原子価,イメージの暗黙的ステレオタイプを定量化する新しいテキスト・ツー・イメージ関連テスト(t2iat)フレームワークを提案する。
先述した生成モデルに対するバイアス試験を再現し,花や昆虫に対する道徳的中立性試験,および多様な社会的属性に関する人口統計学的ステレオタイプ試験を行った。
これらの実験の結果、画像生成における複雑なステレオタイプ行動の存在が示されている。
関連論文リスト
- Gender Bias Evaluation in Text-to-image Generation: A Survey [25.702257177921048]
テキスト・ツー・イメージ・ジェネレーションにおけるジェンダーバイアス評価に関する最近の研究についてレビューする。
安定拡散やDALL-E 2といった最近の人気モデルの評価に焦点をあてる。
論文 参考訳(メタデータ) (2024-08-21T06:01:23Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - New Job, New Gender? Measuring the Social Bias in Image Generation Models [85.26441602999014]
画像生成モデルは、社会的ステレオタイプとバイアスを永続するコンテンツを生成できる。
画像生成モデルにおける社会的バイアスを的確に、かつ、かつ、包括的に引き起こすことのできるフレームワークであるBiasPainterを提案する。
BiasPainterは、自動バイアス検出において90.8%の精度を達成することができる。
論文 参考訳(メタデータ) (2024-01-01T14:06:55Z) - Word-Level Explanations for Analyzing Bias in Text-to-Image Models [72.71184730702086]
Text-to-image(T2I)モデルは、人種や性別に基づいて少数派を過小評価する画像を生成することができる。
本稿では,入力プロンプトのどの単語が生成画像のバイアスの原因となるかを検討する。
論文 参考訳(メタデータ) (2023-06-03T21:39:07Z) - Social Biases through the Text-to-Image Generation Lens [9.137275391251517]
テキスト・トゥ・イメージ(T2I)生成は、プロダクティビティソフトウェアのクリエーター、デザイナ、一般ユーザをサポートする新しいアプリケーションを可能にする。
生成した画像に反映された一般的な社会的偏見の研究と定量化に多次元的アプローチを採用する。
DALLE-v2とStable Diffusionの2つのT2Iモデルについて検討した。
論文 参考訳(メタデータ) (2023-03-30T05:29:13Z) - A Friendly Face: Do Text-to-Image Systems Rely on Stereotypes when the
Input is Under-Specified? [7.586041161211335]
視覚的に不特定なプロンプトに応答して生成された画像の特性について検討する。
多くの場合、画像はステレオタイプ文学で報告されているものと類似した人口統計バイアスを含む。
論文 参考訳(メタデータ) (2023-02-14T16:11:06Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。