論文の概要: When Algorithms Play Favorites: Lookism in the Generation and Perception of Faces
- arxiv url: http://arxiv.org/abs/2506.11025v1
- Date: Tue, 20 May 2025 10:21:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.487026
- Title: When Algorithms Play Favorites: Lookism in the Generation and Perception of Faces
- Title(参考訳): アルゴリズムがお気に入りを演じるとき:顔の生成と知覚におけるルックリズム
- Authors: Miriam Doh, Aditya Gulati, Matei Mancas, Nuria Oliver,
- Abstract要約: 本稿では, 合成顔と機械学習に基づく性別分類アルゴリズムが, アルゴリズム的ルックリズムの影響について検討する。
テキスト・トゥ・イメージ(T2I)システムは、顔の魅力と、知性や信頼性といった無関係なポジティブな特徴を関連付ける傾向がある。
性別分類モデルは、特に非白人女性の間で「魅力のない」顔により高いエラー率を示す。
- 参考スコア(独自算出の注目度): 6.399763005153405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines how synthetically generated faces and machine learning-based gender classification algorithms are affected by algorithmic lookism, the preferential treatment based on appearance. In experiments with 13,200 synthetically generated faces, we find that: (1) text-to-image (T2I) systems tend to associate facial attractiveness to unrelated positive traits like intelligence and trustworthiness; and (2) gender classification models exhibit higher error rates on "less-attractive" faces, especially among non-White women. These result raise fairness concerns regarding digital identity systems.
- Abstract(参考訳): 本稿では、合成顔と機械学習に基づく性別分類アルゴリズムが、外見に基づく優先的な処理であるアルゴリズム的ルックリズムにどのように影響するかを検討する。
13,200の合成顔を用いた実験では,(1)テキスト・ツー・イメージ(T2I)システムは,知性や信頼性などの非関連性のある特徴に顔の魅力を関連付ける傾向がある。
これらの結果は、デジタルIDシステムに関する公平性に関する懸念を提起する。
関連論文リスト
- On the "Illusion" of Gender Bias in Face Recognition: Explaining the Fairness Issue Through Non-demographic Attributes [7.602456562464879]
顔認識システムは、ユーザの性別に基づいて、かなりの精度の差を示す。
顔の属性を効果的にデコレーションし、集約し、バイアスの少ない性別分析を可能にするツールチェーンを提案する。
実験の結果,男女のイメージが特定の属性を共有すると,男女差は消失することがわかった。
論文 参考訳(メタデータ) (2025-01-21T10:21:19Z) - Examining Pathological Bias in a Generative Adversarial Network Discriminator: A Case Study on a StyleGAN3 Model [0.31572294564491876]
GAN(Generative Adversarial Network)は、実際の顔から人間に区別できない、フォトリアリスティックな顔を生成する。
事前学習したStyleGAN3-rモデルの判別器において,病理内部色と輝度バイアスが認められた。
また、判別器は、画像レベルと顔レベルの両方の品質でスコアを体系的に階層化し、不均等に性別、人種、その他のカテゴリーのイメージに影響を及ぼすことも見出した。
論文 参考訳(メタデータ) (2024-02-15T08:34:21Z) - Benchmarking Algorithmic Bias in Face Recognition: An Experimental
Approach Using Synthetic Faces and Human Evaluation [24.35436087740559]
顔認識システムにおけるバイアスを測定する実験手法を提案する。
本手法は,ニューラルフェイスジェネレータを用いて合成顔を生成する。
我々は3つの研究グレードの顔認識モデルの人種と性別の偏りを定量的に評価する。
論文 参考訳(メタデータ) (2023-08-10T08:57:31Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Age Gap Reducer-GAN for Recognizing Age-Separated Faces [72.26969872180841]
本稿では,年齢変化に伴う顔と時間変化をマッチングする新しいアルゴリズムを提案する。
提案手法は,顔の年齢推定と年齢別顔の検証を組み合わせた統合フレームワークである。
論文 参考訳(メタデータ) (2020-11-11T16:43:32Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - Imperfect ImaGANation: Implications of GANs Exacerbating Biases on
Facial Data Augmentation and Snapchat Selfie Lenses [20.36399588424965]
一般的なGAN(Generative Adversarial Networks)は,顔ショットのスキュー分布を与えられると,性別や肌の色調の軸に沿ってバイアスが増すことを示す。
GANはまた、非白人の肌の色を明るくし、工学教授の顔を生成する際に女性の顔の特徴を男性に変化させることによってバイアスを悪化させる。
論文 参考訳(メタデータ) (2020-01-26T21:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。