論文の概要: Draw an Ugly Person An Exploration of Generative AIs Perceptions of Ugliness
- arxiv url: http://arxiv.org/abs/2507.12212v1
- Date: Wed, 16 Jul 2025 13:16:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.398847
- Title: Draw an Ugly Person An Exploration of Generative AIs Perceptions of Ugliness
- Title(参考訳): 優雅な人物を描く : 優美さの知覚に基づく創造的AIの探索
- Authors: Garyoung Kim, Huisung Kwon, Seoju Yun, Yu-Won Youn,
- Abstract要約: 生成AIは人間の創造性を再現するだけでなく、文化的偏見を再現する。
本研究では,4種類の生成AIモデルを用いて,テキストと画像による直感の理解と表現について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI does not only replicate human creativity but also reproduces deep-seated cultural biases, making it crucial to critically examine how concepts like ugliness are understood and expressed by these tools. This study investigates how four different generative AI models understand and express ugliness through text and image and explores the biases embedded within these representations. We extracted 13 adjectives associated with ugliness through iterative prompting of a large language model and generated 624 images across four AI models and three prompts. Demographic and socioeconomic attributes within the images were independently coded and thematically analyzed. Our findings show that AI models disproportionately associate ugliness with old white male figures, reflecting entrenched social biases as well as paradoxical biases, where efforts to avoid stereotypical depictions of marginalized groups inadvertently result in the disproportionate projection of negative attributes onto majority groups. Qualitative analysis further reveals that, despite supposed attempts to frame ugliness within social contexts, conventional physical markers such as asymmetry and aging persist as central visual motifs. These findings demonstrate that despite attempts to create more equal representations, generative AI continues to perpetuate inherited and paradoxical biases, underscoring the critical work being done to create ethical AI training paradigms and advance methodologies for more inclusive AI development.
- Abstract(参考訳): 生成AIは人間の創造性を再現するだけでなく、文化的偏見の深みを再現する。
本研究では、4つの異なる生成AIモデルが、テキストや画像を通して微妙さを理解し、表現し、それらの表現に埋め込まれたバイアスを探索する方法について検討する。
我々は,大規模言語モデルの反復的プロンプトにより,接尾辞に関連する13の形容詞を抽出し,4つのAIモデルと3つのプロンプトで624の画像を生成する。
画像内のデモグラフィックおよび社会経済的属性は、独立してコード化され、数学的に解析された。
以上の結果から,AIモデルは,有意な社会的偏見やパラドックス的偏見を反映して,旧白人男性像と不均等に結びついていることが示唆された。
質的分析により、社会的文脈の中で虚構をフレーム化しようとする試みが想定されているにもかかわらず、非対称性や老化のような従来の物理的マーカーが中心的な視覚的モチーフとして持続していることが明らかになった。
これらの結果は、より平等な表現を生み出す試みにもかかわらず、生成的AIは、より包括的なAI開発のために倫理的AIトレーニングパラダイムを作成し、方法論を進化させるために行われている重要な作業について、遺伝的およびパラドックス的バイアスを持続し続けていることを示している。
関連論文リスト
- When Cars Have Stereotypes: Auditing Demographic Bias in Objects from Text-to-Image Models [4.240144901142787]
このようなバイアスを測定するための新しいフレームワークであるSODA(Stereotyped Object Diagnostic Audit)を紹介する。
提案手法は, 対象物の視覚特性を人口統計学的手がかりと中性プロンプトとを比較した。
性別や民族によって引き起こされる色パターンの反復など、特定の人口集団と視覚特性の強い関連を明らかにする。
論文 参考訳(メタデータ) (2025-08-05T14:15:53Z) - Thinking with Images for Multimodal Reasoning: Foundations, Methods, and Future Frontiers [90.4459196223986]
同様の進化がAIで展開され、単にイメージについて考えるモデルから、イメージについて真に考えるモデルへのパラダイムシフトを象徴している。
この新たなパラダイムは、視覚情報を思考過程の中間ステップとして活用するモデルによって特徴づけられ、視覚を受動的に操作可能な認知ワークスペースに変換する。
論文 参考訳(メタデータ) (2025-06-30T14:48:35Z) - Using complex prompts to identify fine-grained biases in image generation through ChatGPT-4o [0.0]
バイアスの2つの次元は、大きなAIモデルの研究を通して明らかにすることができる。
トレーニングデータやAIの製品に偏りがあるだけでなく、社会にも偏りがある。
画像生成AIに複雑なプロンプトを使ってバイアスのどちらの次元を調査できるかを簡単に議論する。
論文 参考訳(メタデータ) (2025-04-01T03:17:35Z) - Exploring Bias in over 100 Text-to-Image Generative Models [49.60774626839712]
本稿では,Hugging Faceのようなオープンプラットフォームによるモデルの利用率向上に着目し,テキストから画像への生成モデルにおけるバイアスの傾向について検討する。
我々は, (i) 分布バイアス, (ii) 生成幻覚, (iii) 生成ミスレートの3つの主要な次元にまたがるバイアスを評価する。
以上の結果から, 芸術的モデルとスタイル変換モデルに有意なバイアスが生じる一方で, より広範なトレーニング分布の恩恵を受ける基礎モデルでは, 徐々にバイアスが減っていることが示唆された。
論文 参考訳(メタデータ) (2025-03-11T03:40:44Z) - Alien Recombination: Exploring Concept Blends Beyond Human Cognitive Availability in Visual Art [90.8684263806649]
視覚芸術の創造において、AIが人間の認知的限界を超越する方法を示します。
我々の研究は、視覚芸術には膨大な未探索の概念的組み合わせが含まれているという仮説を立てている。
本稿では,人間の認知能力を超えた概念の組み合わせを同定し,生成するエイリアン組換え法を提案する。
論文 参考訳(メタデータ) (2024-11-18T11:55:38Z) - Safeguard Text-to-Image Diffusion Models with Human Feedback Inversion [51.931083971448885]
本稿では,Human Feedback Inversion (HFI) というフレームワークを提案する。
実験の結果,画像品質を維持しながら,好ましくないコンテンツ生成を著しく削減し,公的な領域におけるAIの倫理的展開に寄与することが示された。
論文 参考訳(メタデータ) (2024-07-17T05:21:41Z) - Disability Representations: Finding Biases in Automatic Image Generation [0.0]
本研究では、人気の画像生成モデルにおける障害者に対する表現バイアスについて検討する。
その結果、ほとんどの画像は、障害者を年老いて悲しく、主に手動車椅子で描いているという大きな偏見が示された。
これらの発見は、より包括的なAI開発の必要性を強調し、生成された画像におけるPWDの多様性と正確な表現を保証する。
論文 参考訳(メタデータ) (2024-06-21T09:12:31Z) - Quality Assessment for AI Generated Images with Instruction Tuning [58.41087653543607]
我々はまず,AIGCIQA2023+と呼ばれるAIGIのための画像品質評価(IQA)データベースを構築した。
本稿では,AIGIに対する人間の嗜好を評価するためのMINT-IQAモデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:45:11Z) - Exploring the Naturalness of AI-Generated Images [59.04528584651131]
我々は、AI生成画像の視覚的自然性をベンチマークし、評価する第一歩を踏み出した。
本研究では,人間の評価を整列するAGIの自然性を自動予測するジョイント・オブジェクト・イメージ・ナチュラルネス評価器(JOINT)を提案する。
その結果,JOINTは自然性評価において,より主観的に一貫した結果を提供するために,ベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-12-09T06:08:09Z) - TIBET: Identifying and Evaluating Biases in Text-to-Image Generative Models [22.076898042211305]
我々は、任意のTTIモデルと任意のプロンプトに対して、幅広いバイアススペクトルを研究、定量化するための一般的なアプローチを提案する。
我々の手法は、与えられたプロンプトに関連する可能性のある潜在的なバイアスを自動的に識別し、それらのバイアスを測定する。
本研究では,本手法が意味論的概念を通じて複雑な多次元バイアスを説明できることを示す。
論文 参考訳(メタデータ) (2023-12-03T02:31:37Z) - Unmaking AI Imagemaking: A Methodological Toolkit for Critical
Investigation [0.0]
本稿では,AI画像モデルに対する3つの手法を提案する。
エコシステムの開放は、モデルの生産を取り巻く価値、構造、インセンティブを分析します。
出力をアンメイキングすると、モデルの生成結果が分析され、そのロジックが明らかになる。
論文 参考訳(メタデータ) (2023-07-19T05:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。