論文の概要: Beard Segmentation and Recognition Bias
- arxiv url: http://arxiv.org/abs/2308.15740v1
- Date: Wed, 30 Aug 2023 03:35:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 14:53:34.733767
- Title: Beard Segmentation and Recognition Bias
- Title(参考訳): ひげのセグメンテーションと認知バイアス
- Authors: Kagan Ozturk, Grace Bezold, Aman Bhatta, Haiyu Wu, Kevin Bowyer
- Abstract要約: ひげの存在や大きさなどの人の顔の髪型は、顔認識の精度に大きな影響を及ぼす可能性がある。
分類モデルを訓練し、その精度をアフリカ系アメリカ人とコーカサス人の顔画像間で評価する。
顔の髪型が異なる画像対のFalse Match Rate(FMR)は、アフリカ系アメリカ人男性では10以上、コーカサス男性では25以上である。
- 参考スコア(独自算出の注目度): 0.6874745415692133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A person's facial hairstyle, such as presence and size of beard, can
significantly impact face recognition accuracy. There are publicly-available
deep networks that achieve reasonable accuracy at binary attribute
classification, such as beard / no beard, but few if any that segment the
facial hair region. To investigate the effect of facial hair in a rigorous
manner, we first created a set of fine-grained facial hair annotations to train
a segmentation model and evaluate its accuracy across African-American and
Caucasian face images. We then use our facial hair segmentations to categorize
image pairs according to the degree of difference or similarity in the facial
hairstyle. We find that the False Match Rate (FMR) for image pairs with
different categories of facial hairstyle varies by a factor of over 10 for
African-American males and over 25 for Caucasian males. To reduce the bias
across image pairs with different facial hairstyles, we propose a scheme for
adaptive thresholding based on facial hairstyle similarity. Evaluation on a
subject-disjoint set of images shows that adaptive similarity thresholding
based on facial hairstyles of the image pair reduces the ratio between the
highest and lowest FMR across facial hairstyle categories for African-American
from 10.7 to 1.8 and for Caucasians from 25.9 to 1.3. Facial hair annotations
and facial hair segmentation model will be publicly available.
- Abstract(参考訳): ひげの存在や大きさなどの人の顔の髪型は、顔認識の精度に大きな影響を及ぼす可能性がある。
あごひげやあごひげなどの二項属性分類において妥当な精度を達成するディープネットワークが公開されているが、顔の毛髪領域を区切っている場合はほとんどない。
顔の毛の効果を厳密に調査するため,まず,セグメント化モデルを訓練し,アフリカ系アメリカ人と白人の顔画像間の精度を評価するための細粒度の顔毛アノテーションを作成した。
次に、顔の髪型の違いや類似度に応じて画像ペアを分類するために、顔の毛髪区分を使用します。
顔の毛髪の異なる画像ペアの偽一致率 (fmr) は, アフリカ系アメリカ人男性では10以上, 白人男性では25以上と異なる。
顔毛髪の異なる画像対間のバイアスを低減するため,顔毛髪型類似度に基づく適応しきい値設定手法を提案する。
イメージペアの顔毛髪型に基づく適応的類似度閾値は、アフリカ系アメリカ人の顔毛髪型カテゴリーにおける最も高いFMRと最低のFMRの比率を10.7から1.8、コーカサスでは25.9から1.3に減少させる。
顔のヘアアノテーションと顔のヘアセグメンテーションモデルが一般公開される。
関連論文リスト
- Can the accuracy bias by facial hairstyle be reduced through balancing the training data? [7.052533066597702]
トレーニングセットが大きくなると、すべての顔の毛髪の認識精度が向上するが、トレーニングセットのサイズに関わらず、顔の毛髪の毛髪が引き起こされる精度の変動が持続することを示す。
以上の結果から, 顔の毛髪は, クリーニングヘア画像と顔の毛髪画像の精度のギャップを生じさせ, この影響はアフリカ系アメリカ人とコーカサス人の間で大きく異なる可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-30T13:50:39Z) - Generalizable Face Landmarking Guided by Conditional Face Warping [34.49985314656207]
我々は、ラベル付き実顔とラベルなしのスタイリング顔に基づいて、一般化可能な顔ランドマークを学習する。
本手法は,顔のランドマーク化作業において,既存の最先端領域適応手法よりも優れる。
論文 参考訳(メタデータ) (2024-04-18T16:53:08Z) - AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性がひげを生やし、茶色く肌を生やし、伝統的な服装を身に着けている、重要な人種的均質化を示している。
本稿では、画像を生成する際に、人種や性別の望ましい分布をユーザが指定できるようにデバイアス化ソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - Logical Consistency and Greater Descriptive Power for Facial Hair
Attribute Learning [6.244634329290045]
顔の毛髪属性分類における従来の分類法のテスト精度は,分類の論理的整合性を強制すれば著しく低下することを示した。
顔の毛髪が顔の認識精度にどう影響するかを検討する。
その結果, 顔の髪型の違いと類似性は, 顔の認識におけるインポスタ, 真の得点分布に重要な影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-02-22T02:49:21Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - RoI Tanh-polar Transformer Network for Face Parsing in the Wild [50.8865921538953]
顔解析は、画像中のターゲット顔の顔成分のピクセルワイズラベルを予測することを目的としている。
既存のアプローチは通常、前処理中に計算されたバウンディングボックスに関して、入力画像からターゲット顔を取得する。
本稿では,画像全体を顔領域とコンテキストの固定比でTanh極表現に変換するRoI Tanh極変換を提案する。
第3に、Tanh極空間とTanh-Cartesian空間の両方に畳み込み層を含むハイブリッド残差表現学習ブロック、HybridBlockを提案する。
論文 参考訳(メタデータ) (2021-02-04T16:25:26Z) - Age Gap Reducer-GAN for Recognizing Age-Separated Faces [72.26969872180841]
本稿では,年齢変化に伴う顔と時間変化をマッチングする新しいアルゴリズムを提案する。
提案手法は,顔の年齢推定と年齢別顔の検証を組み合わせた統合フレームワークである。
論文 参考訳(メタデータ) (2020-11-11T16:43:32Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Face Hallucination with Finishing Touches [65.14864257585835]
本稿では,超解像とフロンティア化を同時に行うVivid Face Hallucination Generative Adversarial Network (VividGAN)を提案する。
VividGANは粗いレベルと細かなレベルのFace Hallucination Networks (FHnet)と、粗いDとファインDの2つの識別器で構成されている。
実験により、VvidGANは、フォトリアリスティックな正面HR面を達成し、下流タスクにおいて優れた性能を達成できることが示された。
論文 参考訳(メタデータ) (2020-02-09T07:33:48Z) - Analysis of Gender Inequality In Face Recognition Accuracy [11.6168015920729]
以上の結果から,(1) 類似度が高い女性に対して,(1) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,詐欺師の分布は,女性の精度が低下していることが示唆された。
この現象は、アフリカ系アメリカ人、コーカサス系、アジア系の女性の顔のデータセットに共通している。
論文 参考訳(メタデータ) (2020-01-31T21:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。