論文の概要: InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics
- arxiv url: http://arxiv.org/abs/2004.06592v3
- Date: Wed, 22 Jul 2020 10:24:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 09:49:25.286227
- Title: InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics
- Title(参考訳): InsideBias:ディープネットワークにおけるバイアス測定と顔の性別生体計測への応用
- Authors: Ignacio Serna, Alejandro Pe\~na, Aythami Morales, and Julian Fierrez
- Abstract要約: この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
- 参考スコア(独自算出の注目度): 73.85525896663371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work explores the biases in learning processes based on deep neural
network architectures. We analyze how bias affects deep learning processes
through a toy example using the MNIST database and a case study in gender
detection from face images. We employ two gender detection models based on
popular deep neural networks. We present a comprehensive analysis of bias
effects when using an unbalanced training dataset on the features learned by
the models. We show how bias impacts in the activations of gender detection
models based on face images. We finally propose InsideBias, a novel method to
detect biased models. InsideBias is based on how the models represent the
information instead of how they perform, which is the normal practice in other
existing methods for bias detection. Our strategy with InsideBias allows to
detect biased models with very few samples (only 15 images in our case study).
Our experiments include 72K face images from 24K identities and 3 ethnic
groups.
- Abstract(参考訳): 本研究は、深層ニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスを探求する。
mnistデータベースを用いたトイ例と,顔画像からの性別検出におけるケーススタディを用いて,バイアスがディープラーニングプロセスに与える影響を分析した。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを用いる。
モデルで学習した特徴に対して,非バランスなトレーニングデータセットを用いた場合のバイアス効果の包括的分析を行う。
顔画像に基づいて性別検出モデルのアクティベーションにバイアスがどう影響するかを示す。
バイアスモデルを検出する新しい手法であるinsidebiasを提案する。
InsideBiasは、モデルがどのように実行するかではなく、どのように情報を表現するかに基づいています。
InsideBiasを使った私たちの戦略は、ごく少数のサンプル(ケーススタディでは15の画像のみ)でバイアスのあるモデルを検出することができます。
実験には、24kの身元と3つの民族による72kの顔画像が含まれる。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Mitigating Gender Bias in Face Recognition Using the von Mises-Fisher
Mixture Model [7.049738935364298]
本研究では,ディープ顔認識ネットワークの性別バイアスについて検討する。
幾何学的考察により、新しいポストプロセッシング手法により性別バイアスを緩和する。
実際、様々なデータセットに関する広範な数値実験は、慎重に選択することで性バイアスが大幅に減少することを示している。
論文 参考訳(メタデータ) (2022-10-24T23:53:56Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias
in Image Search [8.730027941735804]
我々は、画像検索において、独特なジェンダーバイアスを研究する。
検索画像は、ジェンダーニュートラルな自然言語クエリに対して、しばしば性別不均衡である。
我々は2つの新しいデバイアスのアプローチを導入する。
論文 参考訳(メタデータ) (2021-09-12T04:47:33Z) - IFBiD: Inference-Free Bias Detection [13.492626767817017]
本論文は、重みを単純に見れば、深層畳み込みニューラルネットワークのバイアスを自動的に検出する方法を初めて探求するものである。
我々は、Colored MNISTデータベースを用いて、おもちゃの例を用いて、ディープネットワークの重み付けにおけるバイアスのエンコード方法を分析する。
論文 参考訳(メタデータ) (2021-09-09T16:01:31Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。