論文の概要: Aesthetics as Structural Harm: Algorithmic Lookism Across Text-to-Image Generation and Classification
- arxiv url: http://arxiv.org/abs/2601.11651v1
- Date: Thu, 15 Jan 2026 15:23:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.252072
- Title: Aesthetics as Structural Harm: Algorithmic Lookism Across Text-to-Image Generation and Classification
- Title(参考訳): 構造的ハームとしての美学--テキスト・画像生成と分類におけるアルゴリズム的ルックリズム
- Authors: Miriam Doh, Aditya Gulati, Corina Canali, Nuria Oliver,
- Abstract要約: 生成型AIモデルは、顔の魅力と正の属性と逆の属性をどう関連づけるかを示す。
3つの性別分類アルゴリズムにおいて,入力面の属性によって有意な性別バイアスが認められた。
- 参考スコア(独自算出の注目度): 7.66240023008789
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines algorithmic lookism-the systematic preferential treatment based on physical appearance-in text-to-image (T2I) generative AI and a downstream gender classification task. Through the analysis of 26,400 synthetic faces created with Stable Diffusion 2.1 and 3.5 Medium, we demonstrate how generative AI models systematically associate facial attractiveness with positive attributes and vice-versa, mirroring socially constructed biases rather than evidence-based correlations. Furthermore, we find significant gender bias in three gender classification algorithms depending on the attributes of the input faces. Our findings reveal three critical harms: (1) the systematic encoding of attractiveness-positive attribute associations in T2I models; (2) gender disparities in classification systems, where women's faces, particularly those generated with negative attributes, suffer substantially higher misclassification rates than men's; and (3) intensifying aesthetic constraints in newer models through age homogenization, gendered exposure patterns, and geographic reductionism. These convergent patterns reveal algorithmic lookism as systematic infrastructure operating across AI vision systems, compounding existing inequalities through both representation and recognition. Disclaimer: This work includes visual and textual content that reflects stereotypical associations between physical appearance and socially constructed attributes, including gender, race, and traits associated with social desirability. Any such associations found in this study emerge from the biases embedded in generative AI systems-not from empirical truths or the authors' views.
- Abstract(参考訳): 本稿では,T2I生成AIと下流ジェンダー分類タスクに基づく,アルゴリズム的ルックリズムの体系的優先的処理について検討する。
安定拡散2.1と3.5ミディアムで生成した26,400の合成顔の分析を通じて、生成AIモデルが、どのようにして、エビデンスベースの相関ではなく、社会的に構築されたバイアスを反映して、顔の魅力を正の属性と逆転と体系的に関連付けるかを実証する。
さらに,3つの性別分類アルゴリズムにおいて,入力顔の属性によって有意な性別バイアスが認められた。
以上の結果より,(1)T2Iモデルにおける魅力陽性属性関連の体系的符号化,(2)女性の顔,特に陰性属性が男性よりもかなり高い誤分類率を被る分類システムにおける性差,(3)年齢均質化,性別暴露パターン,地理的縮小主義による新モデルにおける美的制約の強化,の3つの重大な障害が示唆された。
これらの収束パターンは、AIビジョンシステムにまたがる体系的なインフラストラクチャとしてアルゴリズム的なルックリズムを示し、表現と認識の両方を通じて既存の不平等を複雑化する。
Disclaimer: この作品には、身体的な外見と社会的に構築された属性のステレオタイプ的関連を反映した視覚的・テキスト的コンテンツが含まれます。
この研究で見つかったような関連性は、経験的真実や著者の見解からではなく、生成的AIシステムに埋め込まれたバイアスから生まれる。
関連論文リスト
- When Algorithms Play Favorites: Lookism in the Generation and Perception of Faces [6.399763005153405]
本稿では, 合成顔と機械学習に基づく性別分類アルゴリズムが, アルゴリズム的ルックリズムの影響について検討する。
テキスト・トゥ・イメージ(T2I)システムは、顔の魅力と、知性や信頼性といった無関係なポジティブな特徴を関連付ける傾向がある。
性別分類モデルは、特に非白人女性の間で「魅力のない」顔により高いエラー率を示す。
論文 参考訳(メタデータ) (2025-05-20T10:21:51Z) - A Quantitative Evaluation of the Expressivity of BMI, Pose and Gender in Body Embeddings for Recognition and Identification [56.10719736365069]
我々は,学習した特徴と特定の属性の相互情報として定義された表現性の概念を拡張し,属性のエンコード方法の定量化を行う。
その結果,BMIは最終層において高い表現性を示し,認識におけるその支配的な役割を示していることがわかった。
これらの結果は,ReIDにおける身体属性の中心的役割を示し,属性駆動相関を明らかにするための原則的アプローチを確立した。
論文 参考訳(メタデータ) (2025-03-09T05:15:54Z) - "My Kind of Woman": Analysing Gender Stereotypes in AI through The Averageness Theory and EU Law [0.0]
本研究は,社会的ステレオタイプとアルゴリズム決定の相互作用に光を当てて,性別分類システムについて考察する。
認知心理学とフェミニスト法理論を取り入れることで、AIトレーニングに使用されるデータがジェンダーの多様性と公平性をいかに促進するかを検討する。
論文 参考訳(メタデータ) (2024-06-27T20:03:27Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。