論文の概要: SensitiveLoss: Improving Accuracy and Fairness of Face Representations
with Discrimination-Aware Deep Learning
- arxiv url: http://arxiv.org/abs/2004.11246v2
- Date: Wed, 2 Dec 2020 16:22:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 18:52:31.188953
- Title: SensitiveLoss: Improving Accuracy and Fairness of Face Representations
with Discrimination-Aware Deep Learning
- Title(参考訳): SensitiveLoss: 識別型深層学習による顔表現の精度と公正性の向上
- Authors: Ignacio Serna, Aythami Morales, Julian Fierrez, Manuel Cebrian, Nick
Obradovich, and Iyad Rahwan
- Abstract要約: 偏見認識アルゴリズムの精度と公平性を改善するための識別認識学習法を提案する。
実験により、最もよく使われている顔データベースに基づく学習プロセスが、アルゴリズムによる識別の強い、一般的な訓練済みの深層顔モデルに繋がったことを示す。
提案手法は,事前学習ネットワークへのアドオンとして機能し,平均精度と公平性の観点から性能向上に有効である。
- 参考スコア(独自算出の注目度): 17.088716485755917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a discrimination-aware learning method to improve both accuracy
and fairness of biased face recognition algorithms. The most popular face
recognition benchmarks assume a distribution of subjects without paying much
attention to their demographic attributes. In this work, we perform a
comprehensive discrimination-aware experimentation of deep learning-based face
recognition. We also propose a general formulation of algorithmic
discrimination with application to face biometrics. The experiments include
tree popular face recognition models and three public databases composed of
64,000 identities from different demographic groups characterized by gender and
ethnicity. We experimentally show that learning processes based on the most
used face databases have led to popular pre-trained deep face models that
present a strong algorithmic discrimination. We finally propose a
discrimination-aware learning method, Sensitive Loss, based on the popular
triplet loss function and a sensitive triplet generator. Our approach works as
an add-on to pre-trained networks and is used to improve their performance in
terms of average accuracy and fairness. The method shows results comparable to
state-of-the-art de-biasing networks and represents a step forward to prevent
discriminatory effects by automatic systems.
- Abstract(参考訳): 偏見認識アルゴリズムの精度と公平性を両立させる識別認識学習法を提案する。
最も人気のある顔認識ベンチマークは、人口統計特性に注意を払わずに被験者の分布を推定する。
本研究では,ディープラーニングに基づく顔認識の包括的識別認識実験を行う。
また, 顔バイオメトリックスへの応用により, アルゴリズム識別の一般的な定式化を提案する。
この実験には、木々人気の顔認識モデルと、性別と民族を特徴とする異なる人口集団の64,000のアイデンティティからなる3つのパブリックデータベースが含まれる。
実験により,最もよく使われる顔データベースに基づく学習プロセスが,強いアルゴリズム的識別を示す一般的な事前学習された深層顔モデルにつながったことを示す。
そこで我々は,人気三重項損失関数と感性三重項生成器に基づく識別認識学習手法であるSensitive Lossを提案する。
提案手法は,事前学習ネットワークへのアドオンとして機能し,平均精度と公平性の観点から性能向上に有効である。
この方法は最先端のデバイアスネットワークに匹敵する結果を示し、自動システムによる差別的効果を防止するための一歩を示している。
関連論文リスト
- Analysis of Recent Trends in Face Recognition Systems [0.0]
クラス間の類似性とクラス内変異により、顔認識システムは、それぞれ偽マッチングと偽非マッチエラーを生成する。
近年の研究では、抽出した特徴の堅牢性向上と、認識精度を高めるための前処理アルゴリズムに焦点が当てられている。
論文 参考訳(メタデータ) (2023-04-23T18:55:45Z) - The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look [0.0]
トレーニングデータにおける人種分布が顔認識モデルの性能に及ぼす影響について検討する。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
論文 参考訳(メタデータ) (2022-11-26T07:03:24Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Towards Intrinsic Common Discriminative Features Learning for Face
Forgery Detection using Adversarial Learning [59.548960057358435]
本稿では, 対人学習を利用して, 異なる偽造法と顔の同一性による負の効果を除去する手法を提案する。
我々の顔偽造検出モデルは、偽造法や顔の同一性の影響を排除し、共通の識別的特徴を抽出することを学ぶ。
論文 参考訳(メタデータ) (2022-07-08T09:23:59Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Evaluating Proposed Fairness Models for Face Recognition Algorithms [0.0]
本稿では,米国と欧州の科学者による顔認識アルゴリズムの公正度(公正度)の2つの尺度を特徴付ける。
本稿では,顔認識アルゴリズムの公正度測定において望ましい特性の集合を概説した,機能的公正度基準(FFMC)と呼ばれる解釈可能性基準を提案する。
これは現在、この種のオープンソースデータセットとしては最大のものだと考えています。
論文 参考訳(メタデータ) (2022-03-09T21:16:43Z) - Fairness Properties of Face Recognition and Obfuscation Systems [19.195705814819306]
顔難読化システムは、画像に追加されると知覚不能な摂動を生成し、顔認識システムがユーザを誤識別させる。
顔認識の文脈で不公平であることが知られているメートル法埋め込みネットワークに対する顔難読化のこのような依存は、人口統計学的公正性の問題を表面化させる。
グラフ埋め込みネットワークは人口統計学的に認識されており、それらの人口統計学的特性に基づいて埋め込み空間に顔をクラスタリングしている。
論文 参考訳(メタデータ) (2021-08-05T16:18:15Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。