論文の概要: An Examination of Bias of Facial Analysis based BMI Prediction Models
- arxiv url: http://arxiv.org/abs/2204.10262v1
- Date: Thu, 21 Apr 2022 17:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 14:44:33.802450
- Title: An Examination of Bias of Facial Analysis based BMI Prediction Models
- Title(参考訳): 顔分析に基づくBMI予測モデルに基づくバイアスの検討
- Authors: Hera Siddiqui, Ajita Rattani, Karl Ricanek, Twyla Hill
- Abstract要約: 本稿では、コーカサス系およびアフリカ系アメリカ人の男性および女性を対象に、顔分析に基づくBMI予測モデルのバイアスを評価する。
BMIが増加するにつれて、顔領域の変化は黒人男性や白人女性にとってより顕著になる。
- 参考スコア(独自算出の注目度): 1.5962515374223873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Obesity is one of the most important public health problems that the world is
facing today. A recent trend is in the development of intervention tools that
predict BMI using facial images for weight monitoring and management to combat
obesity. Most of these studies used BMI annotated facial image datasets that
mainly consisted of Caucasian subjects. Research on bias evaluation of
face-based gender-, age-classification, and face recognition systems suggest
that these technologies perform poorly for women, dark-skinned people, and
older adults. The bias of facial analysis-based BMI prediction tools has not
been studied until now. This paper evaluates the bias of facial-analysis-based
BMI prediction models across Caucasian and African-American Males and Females.
Experimental investigations on the gender, race, and BMI balanced version of
the modified MORPH-II dataset suggested that the error rate in BMI prediction
was least for Black Males and highest for White Females. Further, the
psychology-related facial features correlated with weight suggested that as the
BMI increases, the changes in the facial region are more prominent for Black
Males and the least for White Females. This is the reason for the least error
rate of the facial analysis-based BMI prediction tool for Black Males and
highest for White Females.
- Abstract(参考訳): 肥満は今日世界が直面している最も重要な公衆衛生問題の一つだ。
最近のトレンドは、肥満と闘うために顔画像を用いてBMIを予測する介入ツールの開発である。
これらの研究の多くは、主にコーカサス人の被験者からなるBMI注釈付き顔画像データセットを使用した。
顔に基づく性別、年齢分類、顔認識システムのバイアス評価に関する研究は、これらの技術が女性、浅黒い肌の人、そして高齢者に不利に働くことを示唆している。
顔分析に基づくBMI予測ツールのバイアスは、これまで研究されていない。
本稿では、コーカサス系およびアフリカ系アメリカ人の男性および女性を対象に、顔分析に基づくBMI予測モデルのバイアスを評価する。
修正MORPH-IIデータセットの性別、人種、BMIバランスに関する実験的調査では、BMI予測の誤差率は黒人男性が最も高く、白人女性が最も高いことが示唆された。
さらに、体重と相関した心理関連顔の特徴から、BMIが増加するにつれて、顔領域の変化は黒人男性や白人女性にとってより顕著であることが示唆された。
これは、黒人男性向け顔分析ベースのbmi予測ツールの誤差率が低い理由であり、白人女性では最高である。
関連論文リスト
- BMI Prediction from Handwritten English Characters Using a Convolutional Neural Network [0.0]
これまでの研究では、筆跡解析のためのディープラーニング技術とBMI予測との間に明確な関連性は確立されなかった。
本稿では、畳み込みニューラルネットワーク(CNN)を開発し、手書き文字からBMIを推定するディープラーニングアプローチを用いて、この研究ギャップに対処する。
BMI予測タスクのために、小文字の英語スクリプトの48人のサンプルを含むデータセットを正常にキャプチャする。
論文 参考訳(メタデータ) (2024-09-04T10:06:42Z) - From Bias to Balance: Detecting Facial Expression Recognition Biases in Large Multimodal Foundation Models [3.1927733045184885]
本研究では,大規模マルチモーダルファンデーションモデル(LMFM)における表情認識(FER)システムの人種的偏見について考察する。
既存の研究は主に従来のFERモデル(CNN、RNN、ViT)に焦点を当てており、LMFMにおける人種的バイアスの理解のギャップを残している。
GPT-4o、PaliGemma、Gemini、CLIPの4つの主要なLMFMをベンチマークし、異なる人種層にわたる顔の感情検出のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-08-27T07:54:01Z) - Analysing race and sex bias in brain age prediction [18.68533487971233]
本稿では,サブグループ性能解析と特徴検査を行うことにより,一般的なResNet-34モデルを解析する。
その結果,黒,白,黒,アジア,男女の予測性能に統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2023-09-19T14:40:19Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Estimation of BMI from Facial Images using Semantic Segmentation based
Region-Aware Pooling [3.889462292853575]
Body-Mass-Index (BMI)は、健康や社会経済的状況などの生活に関する重要な情報を伝達する。
近年の研究では、手作業による幾何学的顔の特徴やBMI予測のための顔レベルの深い畳み込みニューラルネットワークの特徴が採用されている。
異なる顔領域からプールされた深い特徴を利用することを提案する。
論文 参考訳(メタデータ) (2021-04-10T10:53:21Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。