論文の概要: Benchmarking Algorithmic Bias in Face Recognition: An Experimental
Approach Using Synthetic Faces and Human Evaluation
- arxiv url: http://arxiv.org/abs/2308.05441v1
- Date: Thu, 10 Aug 2023 08:57:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 13:10:34.881585
- Title: Benchmarking Algorithmic Bias in Face Recognition: An Experimental
Approach Using Synthetic Faces and Human Evaluation
- Title(参考訳): 顔認識におけるベンチマークアルゴリズムバイアス:合成顔と人間の評価を用いた実験的アプローチ
- Authors: Hao Liang, Pietro Perona and Guha Balakrishnan
- Abstract要約: 顔認識システムにおけるバイアスを測定する実験手法を提案する。
本手法は,ニューラルフェイスジェネレータを用いて合成顔を生成する。
我々は3つの研究グレードの顔認識モデルの人種と性別の偏りを定量的に評価する。
- 参考スコア(独自算出の注目度): 24.35436087740559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an experimental method for measuring bias in face recognition
systems. Existing methods to measure bias depend on benchmark datasets that are
collected in the wild and annotated for protected (e.g., race, gender) and
non-protected (e.g., pose, lighting) attributes. Such observational datasets
only permit correlational conclusions, e.g., "Algorithm A's accuracy is
different on female and male faces in dataset X.". By contrast, experimental
methods manipulate attributes individually and thus permit causal conclusions,
e.g., "Algorithm A's accuracy is affected by gender and skin color."
Our method is based on generating synthetic faces using a neural face
generator, where each attribute of interest is modified independently while
leaving all other attributes constant. Human observers crucially provide the
ground truth on perceptual identity similarity between synthetic image pairs.
We validate our method quantitatively by evaluating race and gender biases of
three research-grade face recognition models. Our synthetic pipeline reveals
that for these algorithms, accuracy is lower for Black and East Asian
population subgroups. Our method can also quantify how perceptual changes in
attributes affect face identity distances reported by these models. Our large
synthetic dataset, consisting of 48,000 synthetic face image pairs (10,200
unique synthetic faces) and 555,000 human annotations (individual attributes
and pairwise identity comparisons) is available to researchers in this
important area.
- Abstract(参考訳): 顔認識システムにおけるバイアスを測定する実験手法を提案する。
既存のバイアスを測定する方法は、野生で収集され、保護された(人種、性別など)および保護されていない(ポーズ、照明など)属性に注釈付けされたベンチマークデータセットに依存する。
このような観測データセットは相関的な結論のみを許容しており、例えば"Algorithm A's accuracy is different on female and male face in dataset X" である。
対照的に、実験的手法は属性を個別に操作し、例えば「Algorithm A's accuracy are affected by gender and skin color」といった因果的な結論を許容する。本手法は、他の属性を一定に保ちながら、それぞれの属性を独立して変更するニューラルフェイスジェネレータを用いて合成顔を生成することに基づいている。
人間の観察者は、合成画像ペア間の知覚的同一性類似性に関する基礎的真理を重要視している。
我々は3つの研究グレードの顔認識モデルの人種と性別の偏りを定量的に評価する。
我々の合成パイプラインは、これらのアルゴリズムでは、黒と東アジアの人口サブグループの精度が低いことを示している。
本手法は,属性の知覚的変化が顔の識別距離に与える影響を定量化することもできる。
我々の大規模な合成データセットは、48,000の合成顔画像ペア(10,200のユニークな合成顔)と555,000の人間のアノテーション(個人属性とペアのアイデンティティ比較)で構成されており、この重要な領域の研究者が利用できる。
関連論文リスト
- Bias and Diversity in Synthetic-based Face Recognition [12.408456748469426]
合成顔認証データセットの多様性が、真正なデータセットとどのように比較されるかを検討する。
性別、民族、年齢、地位の分布に注目します。
バイアスに関しては、合成ベースモデルが真ベースモデルと類似したバイアス挙動を持っていることが分かる。
論文 参考訳(メタデータ) (2023-11-07T13:12:34Z) - The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look [0.0]
トレーニングデータにおける人種分布が顔認識モデルの性能に及ぼす影響について検討する。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
論文 参考訳(メタデータ) (2022-11-26T07:03:24Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - Towards Intrinsic Common Discriminative Features Learning for Face
Forgery Detection using Adversarial Learning [59.548960057358435]
本稿では, 対人学習を利用して, 異なる偽造法と顔の同一性による負の効果を除去する手法を提案する。
我々の顔偽造検出モデルは、偽造法や顔の同一性の影響を排除し、共通の識別的特徴を抽出することを学ぶ。
論文 参考訳(メタデータ) (2022-07-08T09:23:59Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Mitigating Bias in Facial Analysis Systems by Incorporating Label
Diversity [4.089080285684415]
本研究では,顔の特徴の数学的定義に基づいて,主観的人間に基づくラベルと客観的アノテーションを組み合わせた新しい学習手法を提案する。
提案手法は,下流タスクの精度を高く保ちながら,意図しないバイアスを軽減できる。
論文 参考訳(メタデータ) (2022-04-13T13:17:27Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。