論文の概要: Asymmetric Rejection Loss for Fairer Face Recognition
- arxiv url: http://arxiv.org/abs/2002.03276v1
- Date: Sun, 9 Feb 2020 04:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:27:23.461722
- Title: Asymmetric Rejection Loss for Fairer Face Recognition
- Title(参考訳): フェアラー顔認識における不斉拒絶損失
- Authors: Haoyu Qin
- Abstract要約: 訓練データセットの人種的不均衡により、異なる民族集団間での顔認識性能の違いが示されている。
これは実際には、顔のデータセットが通常収集されるセロブドムにおける非コーカサス民族集団の下位表現にシンプトマティックである。
本研究は,非表示群をフル活用することを目的とした非対称リジェクションロスを提案する。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition performance has seen a tremendous gain in recent years,
mostly due to the availability of large-scale face images dataset that can be
exploited by deep neural networks to learn powerful face representations.
However, recent research has shown differences in face recognition performance
across different ethnic groups mostly due to the racial imbalance in the
training datasets where Caucasian identities largely dominate other
ethnicities. This is actually symptomatic of the under-representation of
non-Caucasian ethnic groups in the celebdom from which face datasets are
usually gathered, rendering the acquisition of labeled data of the
under-represented groups challenging. In this paper, we propose an Asymmetric
Rejection Loss, which aims at making full use of unlabeled images of those
under-represented groups, to reduce the racial bias of face recognition models.
We view each unlabeled image as a unique class, however as we cannot guarantee
that two unlabeled samples are from a distinct class we exploit both labeled
and unlabeled data in an asymmetric manner in our loss formalism. Extensive
experiments show our method's strength in mitigating racial bias, outperforming
state-of-the-art semi-supervision methods. Performance on the under-represented
ethnicity groups increases while that on the well-represented group is nearly
unchanged.
- Abstract(参考訳): 顔認識のパフォーマンスは近年大幅に向上しており、主にディープニューラルネットワークが強力な顔表現を学習するために活用できる大規模な顔画像データセットが利用可能になっている。
しかし、近年の研究では、コーカサス人のアイデンティティが他の民族の大部分を占める訓練データセットにおける人種的不均衡が主な原因で、異なる民族集団間での顔認識性能の違いが示されている。
これは実際には、顔データセットが通常収集されるセロブドムにおける非コーカサス民族集団の過小表示の症状であり、過小表示集団のラベル付きデータの取得を困難にしている。
本稿では,非表示画像の非表示をフル活用し,顔認識モデルの人種的偏見を低減することを目的とした非対称的退避損失を提案する。
それぞれのラベル付きイメージをユニークなクラスとみなすが、2つのラベル付きサンプルが別のクラスからのものであることを保証できないため、ラベル付きデータとラベルなしデータの両方を損失形式において非対称に活用する。
広範な実験により, 人種差別バイアスを緩和し, 最先端の半スーパービジョン法を上回って, 提案手法の強みが示された。
少数民族集団のパフォーマンスは増加し、上位民族集団の成績はほぼ変わらずである。
関連論文リスト
- Studying Bias in GANs through the Lens of Race [91.95264864405493]
本研究では, 画像生成モデルの性能と評価が, 学習データセットの人種構成にどのように影響するかを検討する。
その結果, 生成した画像の人種構成は, トレーニングデータの保存に成功していることがわかった。
しかし、推論中に高品質な画像を生成する手法であるトランケーションは、データの人種的不均衡を悪化させる。
論文 参考訳(メタデータ) (2022-09-06T22:25:56Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Measuring Hidden Bias within Face Recognition via Racial Phenotypes [21.74534280021516]
本研究は、顔認識のための顔表現型属性を用いた、代替的な人種的偏見分析手法を提案する。
顔認識タスクにおける属性の個人的影響を調べるための分類的テストケースを提案する。
論文 参考訳(メタデータ) (2021-10-19T10:46:59Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - An Examination of Fairness of AI Models for Deepfake Detection [5.4852920337961235]
我々は保護されたサブグループ間のディープフェイクデータセットおよび検出モデルに存在するバイアスを評価する。
人種と性別のバランスをとる顔データセットを用いて,3つの一般的なディープフェイク検出器を調べ,人種間の予測性能に大きな差を見出した。
論文 参考訳(メタデータ) (2021-05-02T21:55:04Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Exploring Racial Bias within Face Recognition via per-subject
Adversarially-Enabled Data Augmentation [15.924281804465252]
本稿では,オブジェクト単位のデータセットバランスの実現を目的とした,新たな逆派生データ拡張手法を提案する。
我々の目的は、様々な人種領域にまたがる顔画像を変換することで、合成データセットを自動構築することである。
両面比較では,提案手法が(人種)少数集団の認識性能に与える影響が示唆された。
論文 参考訳(メタデータ) (2020-04-19T19:46:32Z) - Boosting Unconstrained Face Recognition with Auxiliary Unlabeled Data [59.85605718477639]
本稿では,ラベルのない顔を用いて一般化可能な顔表現を学習する手法を提案する。
制約のないデータセットに対する実験結果から、十分な多様性を持つ少量のラベル付きデータが認識性能を向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2020-03-17T20:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。