論文の概要: Probing Fairness of Mobile Ocular Biometrics Methods Across Gender on
VISOB 2.0 Dataset
- arxiv url: http://arxiv.org/abs/2011.08898v1
- Date: Tue, 17 Nov 2020 19:32:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 17:05:38.405725
- Title: Probing Fairness of Mobile Ocular Biometrics Methods Across Gender on
VISOB 2.0 Dataset
- Title(参考訳): VISOB 2.0データセット上のジェンダー間の移動眼バイオメトリックスの公正性
- Authors: Anoop Krishnan, Ali Almadan, Ajita Rattani
- Abstract要約: 本研究は,男女間での認証・性別分類手法の公正性を検討することを目的とする。
実験結果から, 眼球を用いたモバイル・ユーザ・オーセンティケーションにおいて, 男女の同等の性能が示唆された。
深層学習に基づく性別分類モデルでは、男性は眼領域に基づく女性よりも有意に優れていた。
- 参考スコア(独自算出の注目度): 0.8594140167290097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has questioned the fairness of face-based recognition and
attribute classification methods (such as gender and race) for dark-skinned
people and women. Ocular biometrics in the visible spectrum is an alternate
solution over face biometrics, thanks to its accuracy, security, robustness
against facial expression, and ease of use in mobile devices. With the recent
COVID-19 crisis, ocular biometrics has a further advantage over face biometrics
in the presence of a mask. However, fairness of ocular biometrics has not been
studied till now. This first study aims to explore the fairness of ocular-based
authentication and gender classification methods across males and females. To
this aim, VISOB $2.0$ dataset, along with its gender annotations, is used for
the fairness analysis of ocular biometrics methods based on ResNet-50,
MobileNet-V2 and lightCNN-29 models. Experimental results suggest the
equivalent performance of males and females for ocular-based mobile
user-authentication in terms of genuine match rate (GMR) at lower false match
rates (FMRs) and an overall Area Under Curve (AUC). For instance, an AUC of
0.96 for females and 0.95 for males was obtained for lightCNN-29 on an average.
However, males significantly outperformed females in deep learning based gender
classification models based on ocular-region.
- Abstract(参考訳): 近年の研究では、浅黒い肌の男女に対する顔認識と属性分類(性別や人種など)の公平性に疑問が呈されている。
可視光スペクトルの眼バイオメトリックスは、その正確性、セキュリティ、表情に対する堅牢性、モバイルデバイスでの使いやすさによる、顔バイオメトリックスの代替ソリューションである。
最近の新型コロナウイルス(COVID-19)危機で、眼バイオメトリックスはマスクの存在下での顔バイオメトリックスに対してさらなる優位性を持つ。
しかし、これまで眼バイオメトリックスの公平性は研究されていない。
本研究は,男女間での認証・性別分類手法の公正性を検討することを目的とする。
この目的のために、visob $2.0$データセットとその性アノテーションは、resnet-50、mobilenet-v2、lightcnn-29モデルに基づく眼バイオメトリックスメソッドの公正性分析に使用される。
実験の結果,低偽一致率 (fmr) と全体の曲線下領域 (auc) における実測一致率 (gmr) の観点で, 眼球系モバイルユーザ認証における男女同等の性能が示唆された。
例えば、女性用0.96、男性用0.95のAUCは、平均してLightCNN-29である。
しかし, 男子は, 深層学習に基づく性別分類モデルにおいて, 眼領域に基づく女性よりも有意に優れていた。
関連論文リスト
- FaceSaliencyAug: Mitigating Geographic, Gender and Stereotypical Biases via Saliency-Based Data Augmentation [46.74201905814679]
コンピュータビジョンモデルにおける性別バイアスに対処することを目的としたFaceSaliencyAugというアプローチを提案する。
Flickr Faces HQ(FFHQ)、WIKI、IMDB、Labelled Faces in the Wild(LFW)、UTK Faces、Diverseデータセットを含む5つのデータセットで、画像類似度スコア(ISS)を使用してデータセットの多様性を定量化する。
実験の結果,CNN と ViT の男女差の低減が明らかとなり,コンピュータビジョンモデルにおける公平性と傾きの促進に本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2024-10-17T22:36:52Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Deep Ear Biometrics for Gender Classification [3.285531771049763]
我々は、耳画像のサンプルを用いて、ジェンダーの自動分類のためのディープ畳み込みニューラルネットワーク(CNN)モデルを開発した。
提案したモデルは、EarVN1.0の耳データセットで93%の精度を達成した。
論文 参考訳(メタデータ) (2023-08-17T06:15:52Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - Facial Soft Biometrics for Recognition in the Wild: Recent Works,
Annotation, and COTS Evaluation [63.05890836038913]
制約のないシナリオにおける人物認識システムを強化するために,ソフトバイオメトリックスが果たす役割について検討する。
1) ソフトバイオメトリックスのマニュアル推定と,2) 市販オフザシェルフシステムによる自動推定の2つの仮定を考察する。
深層学習に基づく2つの最先端顔認識システムを用いた軟式生体計測実験を行った。
論文 参考訳(メタデータ) (2022-10-24T11:29:57Z) - Investigating Fairness of Ocular Biometrics Among Young, Middle-Aged,
and Older Adults [0.0]
近年, 公正かつ信頼性の高いバイオメトリック・ソリューションの展開に向けて, 様々なバイオメトリック・モダリティのバイアスについて検討する声が上がっている。
本研究の目的は,若年者,中年者,高齢者の可視光スペクトルにおける眼バイオメトリックスの公正性を評価することである。
論文 参考訳(メタデータ) (2021-10-04T18:03:18Z) - Faces in the Wild: Efficient Gender Recognition in Surveillance
Conditions [0.0]
我々は、よく知られた3つの監視データセットのフロントとワイルドフェース版を提示する。
本研究では,自然環境下での性別認識に適した顔情報と身体情報を効果的に動的に組み合わせたモデルを提案する。
本モデルでは,学習可能な融合行列とチャネル・アテンション・サブネットワークを介して顔と身体の情報を組み合わせる。
論文 参考訳(メタデータ) (2021-07-14T17:02:23Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。