論文の概要: Analysis of Bias in Deep Learning Facial Beauty Regressors
- arxiv url: http://arxiv.org/abs/2509.24138v1
- Date: Mon, 29 Sep 2025 00:16:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.656756
- Title: Analysis of Bias in Deep Learning Facial Beauty Regressors
- Title(参考訳): 深層学習顔の美容保持者におけるバイアスの分析
- Authors: Chandon Hamel, Mike Busch,
- Abstract要約: バイアスは、一見バランスのとれたソースからでもAIシステムに導入することができる。
この研究は、美的規範を形成する上でAIが果たす役割について警告を鳴らしている。
均等な美容技術への潜在的な道筋を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias can be introduced to AI systems even from seemingly balanced sources, and AI facial beauty prediction is subject to ethnicity-based bias. This work sounds warnings about AI's role in shaping aesthetic norms while providing potential pathways toward equitable beauty technologies through comparative analysis of models trained on SCUT-FBP5500 and MEBeauty datasets. Employing rigorous statistical validation (Kruskal-Wallis H-tests, post hoc Dunn analyses). It is demonstrated that both models exhibit significant prediction disparities across ethnic groups $(p < 0.001)$, even when evaluated on the balanced FairFace dataset. Cross-dataset validation shows algorithmic amplification of societal beauty biases rather than mitigation based on prediction and error parity. The findings underscore the inadequacy of current AI beauty prediction approaches, with only 4.8-9.5\% of inter-group comparisons satisfying distributional parity criteria. Mitigation strategies are proposed and discussed in detail.
- Abstract(参考訳): バイアスは、一見バランスのとれたソースからでもAIシステムに導入することができる。
この研究は、SCUT-FBP5500とMEBeautyデータセットでトレーニングされたモデルの比較分析を通じて、美的規範を形成する上でAIが果たす役割について警告する。
厳密な統計的検証(Kruskal-Wallis H-tests, post hoc Dunn analysis)を採用する。
両モデルとも、バランスの取れたFairFaceデータセットで評価した場合であっても、民族群$(p < 0.001)$で有意な予測格差が示されることが示されている。
クロスデータセット検証は、予測とエラーパリティに基づく緩和よりも、社会的美のバイアスのアルゴリズムによる増幅を示す。
この結果は、分布パリティ基準を満たすグループ間比較の4.8-9.5\%に過ぎず、現在のAI美容予測アプローチの欠如を浮き彫りにした。
緩和戦略が提案され、詳細が議論されている。
関連論文リスト
- FairViT-GAN: A Hybrid Vision Transformer with Adversarial Debiasing for Fair and Explainable Facial Beauty Prediction [0.0]
顔の美を予測するための新しいハイブリッドフレームワークである textbfFairViT-GAN を提案する。
本研究では,FairViT-GANが予測精度を向上し,textbf0.9230のピアソン相関を実現し,RMSEをtextbf0.2650に短縮することを示す。
対象者の分類精度がほぼランダムな確率(52.1%)に低下する傾向がみられた。
論文 参考訳(メタデータ) (2025-09-28T12:55:31Z) - Predictive Representativity: Uncovering Racial Bias in AI-based Skin Cancer Detection [0.0]
本稿では,予測表現性(PR)の概念を紹介する。
PRは、データセットの構成から成果レベルのエクイティへと焦点をシフトします。
解析の結果,皮膚光タイプによる性能の相違が明らかとなった。
論文 参考訳(メタデータ) (2025-07-10T22:21:06Z) - BOOST: Out-of-Distribution-Informed Adaptive Sampling for Bias Mitigation in Stylistic Convolutional Neural Networks [8.960561031294727]
AIにおけるバイアスは、分類を描く上で重要な課題を示しており、これらのシステムがアートキュレーションや修復といったタスクにますます統合されるにつれて、より深刻なものになっている。
BOOSTと呼ばれる新しいOODインフォームドモデルバイアス適応サンプリング法を提案する。
提案したKaoKoreデータセットとPACSデータセットに対するアプローチを評価する。
論文 参考訳(メタデータ) (2025-07-08T22:18:36Z) - Biased Heritage: How Datasets Shape Models in Facial Expression Recognition [13.77824359359967]
画像に基づく表情認識システムにおいて,データセットから訓練されたモデルへのバイアス伝搬について検討する。
本稿では,複数の階層群を有する複数クラス問題に特化して設計された新しいバイアス指標を提案する。
その結果,FERデータセットの一般的な人口収支よりも,感情特異的な人口動態パターンの防止が優先されるべきであることが示唆された。
論文 参考訳(メタデータ) (2025-03-05T12:25:22Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation [1.6386696247541932]
AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2021-06-23T13:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。