論文の概要: Erasing 'Ugly' from the Internet: Propagation of the Beauty Myth in Text-Image Models
- arxiv url: http://arxiv.org/abs/2511.00749v2
- Date: Tue, 04 Nov 2025 22:07:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 13:56:26.1646
- Title: Erasing 'Ugly' from the Internet: Propagation of the Beauty Myth in Text-Image Models
- Title(参考訳): インターネットから「Ugly」を消し去る:テキスト画像モデルにおける美の神話の伝播
- Authors: Tanvi Dinkar, Aiqi Jiang, Gavin Abercrombie, Ioannis Konstas,
- Abstract要約: この研究は、生成型AIモデルが「美」を符号化し、「美」を消去する方法を研究することである。
我々は3つの言語モデルと2つのテキスト・ツー・イメージモデルにより5984の画像を累積生成する構造的美容分類法を開発した。
その後、女性や非バイナリなソーシャルメディアユーザーを雇い、Likert-scale in-subjects研究を通じて1200の画像を評価します。
その結果、生成画像の86.5%は、より軽い肌色で、22%は、安全労働(SFW)訓練にもかかわらず、明示的な内容を含んでおり、74%は、若年層のものであると評価された。
- 参考スコア(独自算出の注目度): 6.917327316794737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media has exacerbated the promotion of Western beauty norms, leading to negative self-image, particularly in women and girls, and causing harm such as body dysmorphia. Increasingly content on the internet has been artificially generated, leading to concerns that these norms are being exaggerated. The aim of this work is to study how generative AI models may encode 'beauty' and erase 'ugliness', and discuss the implications of this for society. To investigate these aims, we create two image generation pipelines: a text-to-image model and a text-to-language model-to image model. We develop a structured beauty taxonomy which we use to prompt three language models (LMs) and two text-to-image models to cumulatively generate 5984 images using our two pipelines. We then recruit women and non-binary social media users to evaluate 1200 of the images through a Likert-scale within-subjects study. Participants show high agreement in their ratings. Our results show that 86.5% of generated images depicted people with lighter skin tones, 22% contained explicit content despite Safe for Work (SFW) training, and 74% were rated as being in a younger age demographic. In particular, the images of non-binary individuals were rated as both younger and more hypersexualised, indicating troubling intersectional effects. Notably, prompts encoded with 'negative' or 'ugly' beauty traits (such as "a wide nose") consistently produced higher Not SFW (NSFW) ratings regardless of gender. This work sheds light on the pervasive demographic biases related to beauty standards present in generative AI models -- biases that are actively perpetuated by model developers, such as via negative prompting. We conclude by discussing the implications of this on society, which include pollution of the data streams and active erasure of features that do not fall inside the stereotype of what is considered beautiful by developers.
- Abstract(参考訳): ソーシャルメディアは西洋の美的規範の促進を悪化させ、特に女性と少女にネガティブな自己イメージをもたらし、身体の異形症などの危害を引き起こしている。
インターネット上のコンテンツはますます人工的に生成され、これらの規範が誇張されているという懸念につながっている。
本研究の目的は, 生成型AIモデルが「美」を符号化し, 「美」を消去する方法について検討し, 社会への影響について考察することである。
これらの目的を明らかにするために,テキスト・ツー・イメージ・モデルとテキスト・ツー・ランゲージ・モデル・ツー・イメージ・モデルという2つの画像生成パイプラインを構築した。
本研究では,3つの言語モデル (LM) と2つのテキスト・ツー・イメージモデルを用いて,5984の画像を累積的に生成する構造的美容分類法を開発した。
その後、女性や非バイナリなソーシャルメディアユーザーを雇い、Likert-scale in-subjects研究を通じて1200の画像を評価します。
参加者は評価において高い合意を示します。
以上の結果から, 生成画像の86.5%はより軽い肌色を呈し, 22%は労働安全訓練(SFW)にもかかわらず明確な内容を含んでおり, 74%は若年層と評価された。
特に、非二項性個体のイメージは、より若く、より高セクシュアル化されたものと評価され、交叉効果が厄介であった。
特に、「否定的」または「曖昧」な美的特徴(例えば「広い鼻」)でエンコードされたプロンプトは、性別に関わらず、常に高いNot SFW(NSFW)格付けを生み出した。
この研究は、生成的AIモデルに存在する美容標準に関連する広範な人口統計バイアスに光を当てている。
我々は、データストリームの汚染や、開発者が美しいと見なすもののステレオタイプに該当しない機能の積極的な消去を含む、社会におけるこの影響について論じる。
関連論文リスト
- A Taxonomy of the Biases of the Images created by Generative Artificial Intelligence [2.0257616108612373]
生成する人工知能モデルは、ユーザーからプロンプトを受けただけで、ユニークなコンテンツを自動的に生成する素晴らしいパフォーマンスを示しています。
我々は、これらのモデルによって生成されたコンテンツが、変数の多元性に対してどのように強くバイアスされるか、詳細に分析する。
我々は、これらのバイアスの社会的、政治的、経済的含意とそれらを緩和する方法について議論する。
論文 参考訳(メタデータ) (2024-05-02T22:01:28Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - New Job, New Gender? Measuring the Social Bias in Image Generation Models [85.26441602999014]
画像生成モデルは、社会的ステレオタイプとバイアスを永続するコンテンツを生成できる。
画像生成モデルにおける社会的バイアスを的確に、かつ、かつ、包括的に引き起こすことのできるフレームワークであるBiasPainterを提案する。
BiasPainterは、自動バイアス検出において90.8%の精度を達成することができる。
論文 参考訳(メタデータ) (2024-01-01T14:06:55Z) - Contrastive Language-Vision AI Models Pretrained on Web-Scraped
Multimodal Data Exhibit Sexual Objectification Bias [11.6727088473067]
ウェブスクラップで訓練された言語ビジョンAIモデルは、性的対象化のバイアスを学ぶ。
女性プロのイメージは、男性プロのイメージと比較して性描写と関連している可能性が高い。
論文 参考訳(メタデータ) (2022-12-21T18:54:19Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。