論文の概要: PASS: Protected Attribute Suppression System for Mitigating Bias in Face
Recognition
- arxiv url: http://arxiv.org/abs/2108.03764v1
- Date: Mon, 9 Aug 2021 00:39:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 04:04:45.479312
- Title: PASS: Protected Attribute Suppression System for Mitigating Bias in Face
Recognition
- Title(参考訳): PASS:顔認識におけるバイアス軽減のための属性抑制システム
- Authors: Prithviraj Dhar, Joshua Gleason, Aniket Roy, Carlos D. Castillo, Rama
Chellappa
- Abstract要約: 顔認識ネットワークは、識別分類のために訓練されている間、機密属性に関する情報を符号化する。
既存のバイアス緩和アプローチでは、エンドツーエンドのトレーニングが必要であり、高い精度を達成できない。
PASS(Protected Attribute Suppression System)と呼ばれる記述子に基づく逆バイアス除去手法を提案する。
パスは、以前に訓練されたハイパフォーマンスネットワークから得られた記述子を使って、アイデンティティを分類し、機密属性のエンコーディングを同時に削減することができる。
- 参考スコア(独自算出の注目度): 55.858374644761525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face recognition networks encode information about sensitive attributes while
being trained for identity classification. Such encoding has two major issues:
(a) it makes the face representations susceptible to privacy leakage (b) it
appears to contribute to bias in face recognition. However, existing bias
mitigation approaches generally require end-to-end training and are unable to
achieve high verification accuracy. Therefore, we present a descriptor-based
adversarial de-biasing approach called `Protected Attribute Suppression System
(PASS)'. PASS can be trained on top of descriptors obtained from any previously
trained high-performing network to classify identities and simultaneously
reduce encoding of sensitive attributes. This eliminates the need for
end-to-end training. As a component of PASS, we present a novel discriminator
training strategy that discourages a network from encoding protected attribute
information. We show the efficacy of PASS to reduce gender and skintone
information in descriptors from SOTA face recognition networks like Arcface. As
a result, PASS descriptors outperform existing baselines in reducing gender and
skintone bias on the IJB-C dataset, while maintaining a high verification
accuracy.
- Abstract(参考訳): 顔認識ネットワークは、識別分類の訓練中に機密属性に関する情報を符号化する。
このようなエンコーディングには2つの大きな問題がある: (a) 顔表現をプライバシー漏洩の影響を受けやすくする(b) 顔認識におけるバイアスに寄与するように見える。
しかし、既存のバイアス緩和アプローチは一般的にエンドツーエンドのトレーニングを必要とし、高い精度を達成できない。
そこで本研究では,'protected attribute suppression system (pass)'と呼ばれる記述子ベースの逆バイアス回避手法を提案する。
PASSは、以前に訓練されたハイパフォーマンスネットワークから得られた記述子を使って、アイデンティティを分類し、機密属性のエンコーディングを同時に削減することができる。
これにより、エンドツーエンドのトレーニングが不要になる。
PASSの構成要素として,ネットワークが保護属性情報をエンコードすることを妨げる新たな差別化学習戦略を提案する。
本稿では,Arcface などのSOTA 顔認識ネットワークから,ディスクリプタにおける性別やスキントーン情報を減らすためのPASSの有効性を示す。
その結果、PASS記述子は、高い検証精度を維持しながら、IJB-Cデータセットの性別やスキントンバイアスを減らすことで、既存のベースラインよりも優れていた。
関連論文リスト
- Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain [16.05230409730324]
顔画像は、各ユーザのアイデンティティ情報に関連付けられた、敏感なバイオメトリック属性である。
本稿では,顔認識の入力次元を低減するために,ハイブリッド周波数-カラー融合法を提案する。
1:Nの検証シナリオの最先端よりも約2.6%から4.2%高い精度を持つ。
論文 参考訳(メタデータ) (2024-01-24T11:27:32Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - Resurrecting Trust in Facial Recognition: Mitigating Backdoor Attacks in
Face Recognition to Prevent Potential Privacy Breaches [7.436067208838344]
深層学習は顔認識(FR)に広く利用されている
しかし、そのようなモデルは悪意のある当事者によって実行されるバックドア攻撃に対して脆弱である。
BA-BAM: Biometric Authentication - Backdoor Attack Mitigationを提案する。
論文 参考訳(メタデータ) (2022-02-18T13:53:55Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - Honest-but-Curious Nets: Sensitive Attributes of Private Inputs can be
Secretly Coded into the Entropy of Classifiers' Outputs [1.0742675209112622]
非センシティブなターゲット属性の分類のために訓練されたディープニューラルネットワークは、入力データのセンシティブな属性を明らかにすることができる。
深層分類器は,ユーザの入力データの機密属性を,推論時に秘密裏に符号化するように訓練できることを示す。
論文 参考訳(メタデータ) (2021-05-25T16:27:57Z) - Face Attributes as Cues for Deep Face Recognition Understanding [4.132205118175555]
可変選択手法を用いて,隠れレイヤを用いて顔属性を予測する。
性別、眼鏡、帽子の使用は、1つの神経出力だけを使用して各属性を予測しても96%以上の精度で予測できます。
顔の識別に最適化されたDCNNの内部には、これらの属性に最適化されたDCNNとほぼ同じ精度で顔属性をコードする潜在ニューロンが存在することを示す。
論文 参考訳(メタデータ) (2021-05-14T19:54:24Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - Suppressing Uncertainties for Large-Scale Facial Expression Recognition [81.51495681011404]
本稿では,不確実性を効果的に抑制し,深層ネットワークが不確実な顔画像に過度に収まらないような,シンプルで効率的なセルフキュアネットワーク(SCN)を提案する。
公開ベンチマークの結果、我々のSCNは現在の最先端メソッドよりも、RAF-DBで textbf88.14%、AffectNetで textbf60.23%、FERPlusで textbf89.35% を上回りました。
論文 参考訳(メタデータ) (2020-02-24T17:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。