論文の概要: Evaluating Proposed Fairness Models for Face Recognition Algorithms
- arxiv url: http://arxiv.org/abs/2203.05051v1
- Date: Wed, 9 Mar 2022 21:16:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 14:40:55.782590
- Title: Evaluating Proposed Fairness Models for Face Recognition Algorithms
- Title(参考訳): 顔認識アルゴリズムのためのフェアネスモデルの評価
- Authors: John J. Howard, Eli J. Laird, Yevgeniy B. Sirotin, Rebecca E. Rubin,
Jerry L. Tipton, and Arun R. Vemury
- Abstract要約: 本稿では,米国と欧州の科学者による顔認識アルゴリズムの公正度(公正度)の2つの尺度を特徴付ける。
本稿では,顔認識アルゴリズムの公正度測定において望ましい特性の集合を概説した,機能的公正度基準(FFMC)と呼ばれる解釈可能性基準を提案する。
これは現在、この種のオープンソースデータセットとしては最大のものだと考えています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of face recognition algorithms by academic and commercial
organizations is growing rapidly due to the onset of deep learning and the
widespread availability of training data. Though tests of face recognition
algorithm performance indicate yearly performance gains, error rates for many
of these systems differ based on the demographic composition of the test set.
These "demographic differentials" in algorithm performance can contribute to
unequal or unfair outcomes for certain groups of people, raising concerns with
increased worldwide adoption of face recognition systems. Consequently,
regulatory bodies in both the United States and Europe have proposed new rules
requiring audits of biometric systems for "discriminatory impacts" (European
Union Artificial Intelligence Act) and "fairness" (U.S. Federal Trade
Commission). However, no standard for measuring fairness in biometric systems
yet exists. This paper characterizes two proposed measures of face recognition
algorithm fairness (fairness measures) from scientists in the U.S. and Europe.
We find that both proposed methods are challenging to interpret when applied to
disaggregated face recognition error rates as they are commonly experienced in
practice. To address this, we propose a set of interpretability criteria,
termed the Functional Fairness Measure Criteria (FFMC), that outlines a set of
properties desirable in a face recognition algorithm fairness measure. We
further develop a new fairness measure, the Gini Aggregation Rate for Biometric
Equitability (GARBE), and show how, in conjunction with the Pareto
optimization, this measure can be used to select among alternative algorithms
based on the accuracy/fairness trade-space. Finally, we have open-sourced our
dataset of machine-readable, demographically disaggregated error rates. We
believe this is currently the largest open-source dataset of its kind.
- Abstract(参考訳): 深層学習の開始と訓練データの普及により,学術・商業組織による顔認識アルゴリズムの開発が急速に進んでいる。
顔認識アルゴリズムの性能テストは年々の性能向上を示すが、これらのシステムの誤差率はテストセットの人口構成によって異なる。
アルゴリズムのパフォーマンスの「デモグラフィ微分」は、特定のグループに対して不平等または不公平な結果をもたらす可能性があり、顔認識システムの世界的普及への懸念が高まる。
その結果、米国と欧州の規制機関は、「差別的影響」(欧州連合人工知能法)と「公正」(米国連邦取引委員会)のために生体認証システムの監査を必要とする新しい規則を提案した。
しかし、生体認証システムの公平性を測定する基準はまだ存在しない。
本稿では,米国と欧州の科学者による顔認識アルゴリズムの公正度(公正度)の2つの尺度を特徴付ける。
提案手法は, 顔認証の誤り率の分散に適用する場合, 一般に経験されるように解釈することが困難であることがわかった。
そこで本研究では,顔認識アルゴリズムの公正度測定において望ましい特性の集合を概説した,FFMC(Functional Fairness Measure Criteria)と呼ばれる解釈可能性基準を提案する。
我々はさらに,新しい公正度尺度であるGini Aggregation Rate for Biometric Equitability (GARBE)を開発し,Pareto最適化と組み合わせて,精度/公平性トレードオフ空間に基づいた代替アルゴリズムを選択する方法を示す。
最後に、我々のデータセットをオープンソースとして公開しました。
これは現在、この種のオープンソースデータセットとしては最大のものだと考えています。
関連論文リスト
- Comprehensive Equity Index (CEI): Definition and Application to Bias Evaluation in Biometrics [47.762333925222926]
本稿では,機械学習モデルのバイアス行動の定量化のための新しい指標を提案する。
顔認識システムの運用評価に焦点をあて,適用する。
論文 参考訳(メタデータ) (2024-09-03T14:19:38Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition [5.478764356647437]
FERシステムの公平性を高めるための強力なバイアス軽減法として,Continual Learning (CL) の新たな利用法を提案する。
表現認識と行動ユニット(AU)検出タスクにおける分類精度と公平度スコアについて,非CL法とCL法との比較を行った。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:22:17Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - SensitiveLoss: Improving Accuracy and Fairness of Face Representations
with Discrimination-Aware Deep Learning [17.088716485755917]
偏見認識アルゴリズムの精度と公平性を改善するための識別認識学習法を提案する。
実験により、最もよく使われている顔データベースに基づく学習プロセスが、アルゴリズムによる識別の強い、一般的な訓練済みの深層顔モデルに繋がったことを示す。
提案手法は,事前学習ネットワークへのアドオンとして機能し,平均精度と公平性の観点から性能向上に有効である。
論文 参考訳(メタデータ) (2020-04-22T10:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。