論文の概要: Balancing Biases and Preserving Privacy on Balanced Faces in the Wild
- arxiv url: http://arxiv.org/abs/2103.09118v5
- Date: Wed, 5 Jul 2023 20:06:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 18:58:45.307290
- Title: Balancing Biases and Preserving Privacy on Balanced Faces in the Wild
- Title(参考訳): 野生のバランス顔におけるバイアスのバランスとプライバシーの保護
- Authors: Joseph P Robinson and Can Qin and Yann Henon and Samson Timoner and
Yun Fu
- Abstract要約: 現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
- 参考スコア(独自算出の注目度): 50.915684171879036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are demographic biases present in current facial recognition (FR)
models. To measure these biases across different ethnic and gender subgroups,
we introduce our Balanced Faces in the Wild (BFW) dataset. This dataset allows
for the characterization of FR performance per subgroup. We found that relying
on a single score threshold to differentiate between genuine and imposters
sample pairs leads to suboptimal results. Additionally, performance within
subgroups often varies significantly from the global average. Therefore,
specific error rates only hold for populations that match the validation data.
To mitigate imbalanced performances, we propose a novel domain adaptation
learning scheme that uses facial features extracted from state-of-the-art
neural networks. This scheme boosts the average performance and preserves
identity information while removing demographic knowledge. Removing demographic
knowledge prevents potential biases from affecting decision-making and protects
privacy by eliminating demographic information. We explore the proposed method
and demonstrate that subgroup classifiers can no longer learn from features
projected using our domain adaptation scheme. For access to the source code and
data, please visit https://github.com/visionjo/facerec-bias-bfw.
- Abstract(参考訳): 現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
異なる民族と性別のサブグループにまたがる偏見を測定するために、我々のBFWデータセットを紹介します。
このデータセットは、サブグループ毎のFR性能を特徴づけることができる。
純正と偽のサンプルペアを区別するために1つのスコアしきい値に頼ると、最適でない結果が得られることがわかった。
さらに、サブグループ内のパフォーマンスは、しばしばグローバル平均から大きく変化する。
したがって、特定のエラー率は、検証データに一致する人口のみである。
そこで本研究では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
このスキームは平均的なパフォーマンスを高め、人口統計知識を取り除きながらアイデンティティ情報を保存する。
人口統計知識の除去は、潜在的なバイアスが意思決定に影響を与えるのを防ぎ、人口統計情報を排除してプライバシーを保護する。
提案手法を探索し,ドメイン適応方式を用いて予測された特徴からサブグループ分類器が学習できないことを示す。
ソースコードとデータにアクセスするには、https://github.com/visionjo/facerec-bias-bfwをご覧ください。
関連論文リスト
- Invariant Feature Regularization for Fair Face Recognition [45.23154294914808]
偏りのある特徴は少数派ではあまり一般化しないことを示す。
教師なしの方法で多様なデータ分割を反復的に生成することを提案する。
INV-REGは、様々な人口集団の顔認識を改善する新しい最先端技術をもたらす。
論文 参考訳(メタデータ) (2023-10-23T07:44:12Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Deep Learning on a Healthy Data Diet: Finding Important Examples for
Fairness [15.210232622716129]
データ駆動予測ソリューションは、主に商用アプリケーションで使われているが、バイアスやステレオタイプに悩まされる傾向がある。
データ拡張は、トレーニングデータセットに反実例を追加することで、性別バイアスを低減する。
拡張データセットのいくつかの例は、公平性には重要でも有害でもないことを示します。
論文 参考訳(メタデータ) (2022-11-20T22:42:30Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - On GANs perpetuating biases for face verification [75.99046162669997]
GANなどの生成モデルから生成されたデータにはバイアスや公平性の問題が伴う。
特に、FFHQデータセットでトレーニングされたGANは、20~29歳の年齢層で白人の顔を生成するバイアスを示している。
論文 参考訳(メタデータ) (2022-08-27T17:47:09Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Face Recognition: Too Bias, or Not Too Bias? [45.404162391012726]
我々は、最先端の顔認識システムにおけるバイアスの問題に対する批判的な洞察を明らかにする。
異なるサブグループにまたがる対面対の最適スコアしきい値の変動を示す。
また、人間の知覚にそのようなバイアスが存在するという仮説を支持する、人間のバイアスを測定するために、人間の評価を行う。
論文 参考訳(メタデータ) (2020-02-16T01:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。