論文の概要: Measuring Hidden Bias within Face Recognition via Racial Phenotypes
- arxiv url: http://arxiv.org/abs/2110.09839v1
- Date: Tue, 19 Oct 2021 10:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 20:01:07.682503
- Title: Measuring Hidden Bias within Face Recognition via Racial Phenotypes
- Title(参考訳): 人種的表現型による顔認識内隠れバイアスの測定
- Authors: Seyma Yucer, Furkan Tektas, Noura Al Moubayed and Toby P. Breckon
- Abstract要約: 本研究は、顔認識のための顔表現型属性を用いた、代替的な人種的偏見分析手法を提案する。
顔認識タスクにおける属性の個人的影響を調べるための分類的テストケースを提案する。
- 参考スコア(独自算出の注目度): 21.74534280021516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work reports disparate performance for intersectional racial groups
across face recognition tasks: face verification and identification. However,
the definition of those racial groups has a significant impact on the
underlying findings of such racial bias analysis. Previous studies define these
groups based on either demographic information (e.g. African, Asian etc.) or
skin tone (e.g. lighter or darker skins). The use of such sensitive or broad
group definitions has disadvantages for bias investigation and subsequent
counter-bias solutions design. By contrast, this study introduces an
alternative racial bias analysis methodology via facial phenotype attributes
for face recognition. We use the set of observable characteristics of an
individual face where a race-related facial phenotype is hence specific to the
human face and correlated to the racial profile of the subject. We propose
categorical test cases to investigate the individual influence of those
attributes on bias within face recognition tasks. We compare our
phenotype-based grouping methodology with previous grouping strategies and show
that phenotype-based groupings uncover hidden bias without reliance upon any
potentially protected attributes or ill-defined grouping strategies.
Furthermore, we contribute corresponding phenotype attribute category labels
for two face recognition tasks: RFW for face verification and VGGFace2 (test
set) for face identification.
- Abstract(参考訳): 最近の研究報告では、顔認証と識別という、顔認証タスクの横断的な人種集団に対する異なるパフォーマンスが報告されている。
しかし、これらの人種集団の定義は、このような人種バイアス分析の基盤となる結果に大きな影響を与えている。
以前の研究では、これらのグループを人口統計情報(アフリカ、アジアなど)または肌色(より軽い肌、より暗い肌など)に基づいて定義している。
このようなセンシティブあるいは広義のグループ定義の使用は、バイアス調査とその後の反バイアスソリューション設計に欠点がある。
対照的に、顔認識のための顔表現型属性を用いた代替の人種バイアス分析手法を提案する。
人種に関連する顔の表現型が人間の顔に特有であり、対象者の人種的特徴と相関する個々の顔の観察可能な特徴のセットを用いる。
顔認識タスクにおける属性の個人的影響を調べるための分類的テストケースを提案する。
我々は,表現型に基づくグループ化手法と過去のグループ化戦略を比較し,表現型に基づくグループ化が潜在的に保護された属性や定義されていないグループ化戦略に依存することなく隠れバイアスを明らかにすることを示す。
さらに,顔認証のためのrfwと顔識別のためのvggface2(テストセット)という2つの顔認識タスクに対して,対応する表現型属性カテゴリラベルを提案する。
関連論文リスト
- Racial Bias within Face Recognition: A Survey [15.924281804465252]
人種的偏見の問題は、人種定義、グループ化戦略、人種または人種関連グループ化の社会的意味から始まる。
一般的な顔認識処理パイプラインは,画像取得,顔の局所化,顔表現,顔認証,識別の4段階に分けられる。
全体的な目的は、顔認識処理パイプラインの各ステージおよび各ステージに関して、人種的バイアス問題に関する包括的なカバレッジを提供することである。
論文 参考訳(メタデータ) (2023-05-01T13:33:12Z) - The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look [0.0]
トレーニングデータにおける人種分布が顔認識モデルの性能に及ぼす影響について検討する。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
論文 参考訳(メタデータ) (2022-11-26T07:03:24Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - Towards Intrinsic Common Discriminative Features Learning for Face
Forgery Detection using Adversarial Learning [59.548960057358435]
本稿では, 対人学習を利用して, 異なる偽造法と顔の同一性による負の効果を除去する手法を提案する。
我々の顔偽造検出モデルは、偽造法や顔の同一性の影響を排除し、共通の識別的特徴を抽出することを学ぶ。
論文 参考訳(メタデータ) (2022-07-08T09:23:59Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Asymmetric Rejection Loss for Fairer Face Recognition [1.52292571922932]
訓練データセットの人種的不均衡により、異なる民族集団間での顔認識性能の違いが示されている。
これは実際には、顔のデータセットが通常収集されるセロブドムにおける非コーカサス民族集団の下位表現にシンプトマティックである。
本研究は,非表示群をフル活用することを目的とした非対称リジェクションロスを提案する。
論文 参考訳(メタデータ) (2020-02-09T04:01:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。