論文の概要: Face Recognition: Too Bias, or Not Too Bias?
- arxiv url: http://arxiv.org/abs/2002.06483v4
- Date: Tue, 21 Apr 2020 01:34:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 18:06:53.634072
- Title: Face Recognition: Too Bias, or Not Too Bias?
- Title(参考訳): 顔認識:偏りすぎるか、偏りすぎるか?
- Authors: Joseph P Robinson, Gennady Livitz, Yann Henon, Can Qin, Yun Fu, and
Samson Timoner
- Abstract要約: 我々は、最先端の顔認識システムにおけるバイアスの問題に対する批判的な洞察を明らかにする。
異なるサブグループにまたがる対面対の最適スコアしきい値の変動を示す。
また、人間の知覚にそのようなバイアスが存在するという仮説を支持する、人間のバイアスを測定するために、人間の評価を行う。
- 参考スコア(独自算出の注目度): 45.404162391012726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We reveal critical insights into problems of bias in state-of-the-art facial
recognition (FR) systems using a novel Balanced Faces In the Wild (BFW)
dataset: data balanced for gender and ethnic groups. We show variations in the
optimal scoring threshold for face-pairs across different subgroups. Thus, the
conventional approach of learning a global threshold for all pairs resulting in
performance gaps among subgroups. By learning subgroup-specific thresholds, we
not only mitigate problems in performance gaps but also show a notable boost in
the overall performance. Furthermore, we do a human evaluation to measure the
bias in humans, which supports the hypothesis that such a bias exists in human
perception. For the BFW database, source code, and more, visit
github.com/visionjo/facerec-bias-bfw.
- Abstract(参考訳): 本研究では,最先端顔認識(fr)システムにおけるバイアス問題に対する批判的知見を,野生(bfw)データセットにおける新しいバランスド・フェイスを用いて明らかにする。
異なるサブグループにまたがる対面対の最適スコアしきい値の変動を示す。
したがって、すべてのペアのグローバルしきい値を学ぶ従来のアプローチは、サブグループ間のパフォーマンスギャップをもたらす。
サブグループ固有の閾値を学習することで、パフォーマンスギャップの問題を軽減するだけでなく、全体的なパフォーマンスの顕著な向上も示します。
さらに,このようなバイアスが人間の知覚に存在するという仮説を支持する,人間のバイアスを測定するために,人間による評価を行う。
BFWデータベース、ソースコードなどについてはgithub.com/visionjo/facerec-bias-bfw.comを参照。
関連論文リスト
- GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Mitigating Algorithmic Bias on Facial Expression Recognition [0.0]
バイアス付きデータセットはユビキタスであり、機械学習の課題を提示している。
偏りのあるデータセットの問題は、少数民族グループを扱う際に特に敏感である。
本研究は, 表情認識実験による偏差変化型オートエンコーダを用いて, 偏差を緩和する方法の1つを探る。
論文 参考訳(メタデータ) (2023-12-23T17:41:30Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Mitigating Gender Bias in Face Recognition Using the von Mises-Fisher
Mixture Model [7.049738935364298]
本研究では,ディープ顔認識ネットワークの性別バイアスについて検討する。
幾何学的考察により、新しいポストプロセッシング手法により性別バイアスを緩和する。
実際、様々なデータセットに関する広範な数値実験は、慎重に選択することで性バイアスが大幅に減少することを示している。
論文 参考訳(メタデータ) (2022-10-24T23:53:56Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Exploring Biases and Prejudice of Facial Synthesis via Semantic Latent
Space [1.858151490268935]
この研究は、生成モデルの振る舞いをバイアス化し、バイアスの原因を特定し、それらを取り除くことを目的としている。
予想通り、偏りのあるデータが顔のフロンダル化モデルの偏りのある予測を引き起こすと結論付けることができる。
その結果、50:50の割合の明らかな選択は、このデータセットが女性の顔に偏った振る舞いを減らすのに最適ではないことがわかった。
論文 参考訳(メタデータ) (2021-08-23T16:09:18Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。