論文の概要: Facial Analysis Systems and Down Syndrome
- arxiv url: http://arxiv.org/abs/2502.06341v1
- Date: Mon, 10 Feb 2025 10:43:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:35:55.540361
- Title: Facial Analysis Systems and Down Syndrome
- Title(参考訳): 顔分析システムとダウン症候群
- Authors: Marco Rondina, Fabiana Vinci, Antonio Vetrò, Juan Carlos De Martin,
- Abstract要約: ダウン症候群患者の顔における顔分析システムの限界について報告する。
その結果、ダウン症候群の人の顔に当てはまると、顔の分類を変えるバイアスに新たな光が当てられた。
- 参考スコア(独自算出の注目度): 0.14999444543328289
- License:
- Abstract: The ethical, social and legal issues surrounding facial analysis technologies have been widely debated in recent years. Key critics have argued that these technologies can perpetuate bias and discrimination, particularly against marginalized groups. We contribute to this field of research by reporting on the limitations of facial analysis systems with the faces of people with Down syndrome: this particularly vulnerable group has received very little attention in the literature so far. This study involved the creation of a specific dataset of face images. An experimental group with faces of people with Down syndrome, and a control group with faces of people who are not affected by the syndrome. Two commercial tools were tested on the dataset, along three tasks: gender recognition, age prediction and face labelling. The results show an overall lower accuracy of prediction in the experimental group, and other specific patterns of performance differences: i) high error rates in gender recognition in the category of males with Down syndrome; ii) adults with Down syndrome were more often incorrectly labelled as children; iii) social stereotypes are propagated in both the control and experimental groups, with labels related to aesthetics more often associated with women, and labels related to education level and skills more often associated with men. These results, although limited in scope, shed new light on the biases that alter face classification when applied to faces of people with Down syndrome. They confirm the structural limitation of the technology, which is inherently dependent on the datasets used to train the models.
- Abstract(参考訳): 顔分析技術をめぐる倫理的、社会的、法的問題は近年広く議論されている。
主要な批評家は、これらの技術は偏見と差別を持続させることができる、と論じている。
本研究は,ダウン症候群患者の顔による顔分析システムの限界を報告することによって,この研究分野に寄与する。
本研究は、顔画像の特定のデータセットを作成することを含む。
ダウン症候群の人の顔を持つ実験グループと、この症候群の影響を受けない人の顔を持つ制御グループ。
このデータセットでは、性別認識、年齢予測、顔ラベル付けという3つのタスクとともに、2つの商用ツールがテストされた。
その結果、実験群における予測精度が全体的に低いこと、および性能差のパターンが明らかとなった。
一 ダウン症候群の男性における性別認識の誤り率
二 ダウン症候群の成人は、子供と誤記されることが多かったこと。
三 社会のステレオタイプは、対照群及び実験群の両方に伝播し、美学に関するラベルは、女性に関するものが多く、教育レベル及び技能に関するラベルは、男性に関するものが多い。
これらの結果は、範囲が限られているが、ダウン症候群の人の顔に当てはまると、顔の分類を変えるバイアスに新たな光を当てた。
彼らは、モデルのトレーニングに使用するデータセットに本質的に依存する技術の構造的制限を確認する。
関連論文リスト
- Faces of the Mind: Unveiling Mental Health States Through Facial Expressions in 11,427 Adolescents [12.51443153354506]
うつ病や不安などの気分障害は、しばしば表情を通して現れる。
11,427人の被験者の顔映像を分析した。
論文 参考訳(メタデータ) (2024-05-30T14:02:40Z) - Testing the Performance of Face Recognition for People with Down Syndrome [2.3475320614258033]
本稿では,ダウン症候群患者に対する顔認識アルゴリズムの性能について検討する。
ダウンシンドロームの個体は一般的な染色体異常であり、年間1,000人に1人が発症する。
ダウン症候群患者では顔認識性能が有意に低下することが観察された。
論文 参考訳(メタデータ) (2024-05-18T09:41:51Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Synthetic Data for the Mitigation of Demographic Biases in Face
Recognition [10.16490522214987]
本研究では, 顔認識技術に影響を及ぼす人口統計バイアスを, 合成データを用いて緩和する可能性について検討した。
GANDiffFaceによって生成された合成データセットは、制御可能な人口分布と現実的なクラス内変動を用いて、顔認識のためのデータセットを合成できる新しいフレームワークである。
本研究は、顔認識における人口統計バイアスを軽減するために、提案手法と合成データの利用を支持する。
論文 参考訳(メタデータ) (2024-02-02T14:57:42Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。