論文の概要: A Friendly Face: Do Text-to-Image Systems Rely on Stereotypes when the
Input is Under-Specified?
- arxiv url: http://arxiv.org/abs/2302.07159v1
- Date: Tue, 14 Feb 2023 16:11:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 14:57:29.899476
- Title: A Friendly Face: Do Text-to-Image Systems Rely on Stereotypes when the
Input is Under-Specified?
- Title(参考訳): 親しみやすい顔:入力が不特定のときステレオタイプをベースとしたテキスト・ツー・イメージシステム
- Authors: Kathleen C. Fraser, Svetlana Kiritchenko, and Isar Nejadgholi
- Abstract要約: 視覚的に不特定なプロンプトに応答して生成された画像の特性について検討する。
多くの場合、画像はステレオタイプ文学で報告されているものと類似した人口統計バイアスを含む。
- 参考スコア(独自算出の注目度): 7.586041161211335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As text-to-image systems continue to grow in popularity with the general
public, questions have arisen about bias and diversity in the generated images.
Here, we investigate properties of images generated in response to prompts
which are visually under-specified, but contain salient social attributes
(e.g., 'a portrait of a threatening person' versus 'a portrait of a friendly
person'). Grounding our work in social cognition theory, we find that in many
cases, images contain similar demographic biases to those reported in the
stereotype literature. However, trends are inconsistent across different models
and further investigation is warranted.
- Abstract(参考訳): テキストと画像のシステムは一般大衆の間で人気が高まっているため、生成された画像のバイアスや多様性について疑問が持ち上がっている。
本稿では,視覚的に不特定であるが,社会的属性(例えば「脅威人物の肖像」と「友好人物の肖像」)を含むプロンプトに応答して生成した画像の特性について検討する。
社会認知理論における我々の研究に基づいて、多くの場合、画像にはステレオタイプ文学で報告されたものと類似した人口統計バイアスが含まれていることが判明した。
しかし、傾向は異なるモデル間で矛盾しており、さらなる調査が保証されている。
関連論文リスト
- New Job, New Gender? Measuring the Social Bias in Image Generation Models [85.26441602999014]
画像生成モデルは、社会的ステレオタイプとバイアスを永続するコンテンツを生成できる。
画像生成モデルにおける社会的バイアスを的確に、かつ、かつ、包括的に引き起こすことのできるフレームワークであるBiasPainterを提案する。
BiasPainterは、自動バイアス検出において90.8%の精度を達成することができる。
論文 参考訳(メタデータ) (2024-01-01T14:06:55Z) - Exploring Social Bias in Downstream Applications of Text-to-Image
Foundation Models [72.06006736916821]
合成画像を用いて、社会的バイアスに対するテキスト・画像モデル、画像編集と分類の2つの応用を探索する。
提案手法を用いて,最先端のオープンソーステキスト・ツー・イメージ・モデルであるtextitStable Diffusion における有意義かつ有意義なセクション間社会的バイアスを明らかにする。
本研究は、下流業務・サービスにおけるテキスト・ツー・イメージ基盤モデルの導入について、未発表の点に注意を払っている。
論文 参考訳(メタデータ) (2023-12-05T14:36:49Z) - Probing Intersectional Biases in Vision-Language Models with
Counterfactual Examples [5.870913541790421]
我々は、テキスト・ツー・イメージ拡散モデルを用いて、大規模に侵入する社会的バイアスを探索する対実例を作成する。
提案手法では,安定拡散とクロスアテンション制御を用いて,対実的画像とテキストのペアのセットを生成する。
我々は、最先端のVLMに存在する交叉社会的バイアスを明らかにするために、生成されたデータセットを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-04T17:25:10Z) - T2IAT: Measuring Valence and Stereotypical Biases in Text-to-Image
Generation [11.109588924016254]
本稿では,概念とイメージ間の暗黙的なステレオタイプを定量化する新しいテキスト・ツー・イメージ・アソシエーション・テスト(T2IAT)フレームワークを提案する。
我々は、前述した生成モデルに対するバイアステストを再現し、花や昆虫に対する道徳的に中立なテストを含む。
これらの実験の結果は、画像生成における複雑なステレオタイプ的挙動の存在を実証している。
論文 参考訳(メタデータ) (2023-06-01T17:02:51Z) - Social Biases through the Text-to-Image Generation Lens [9.137275391251517]
テキスト・トゥ・イメージ(T2I)生成は、プロダクティビティソフトウェアのクリエーター、デザイナ、一般ユーザをサポートする新しいアプリケーションを可能にする。
生成した画像に反映された一般的な社会的偏見の研究と定量化に多次元的アプローチを採用する。
DALLE-v2とStable Diffusionの2つのT2Iモデルについて検討した。
論文 参考訳(メタデータ) (2023-03-30T05:29:13Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Image Representations Learned With Unsupervised Pre-Training Contain
Human-like Biases [3.0349733976070015]
本研究では,社会概念の表現とイメージの属性の相関関係を定量化する手法を開発した。
一般的なベンチマーク画像データセットであるImageNetでトレーニングされた最先端の教師なしモデルは、人種、性別、交差点バイアスを自動的に学習する。
論文 参考訳(メタデータ) (2020-10-28T15:55:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。