論文の概要: Balancing Biases and Preserving Privacy on Balanced Faces in the Wild
- arxiv url: http://arxiv.org/abs/2103.09118v1
- Date: Tue, 16 Mar 2021 15:05:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:37:04.052864
- Title: Balancing Biases and Preserving Privacy on Balanced Faces in the Wild
- Title(参考訳): 野生のバランス顔におけるバイアスのバランスとプライバシーの保護
- Authors: Joseph P Robinson and Can Qin and Yann Henon and Samson Timoner and
Yun Fu
- Abstract要約: 1つのスコアしきい値を使ってサンプルペアが本物か偽物かを決定する場合、パフォーマンスは最適でないことを示している。
SOTA深層ネットを用いて抽出した顔面符号化に対する新しい領域適応学習法を用いて不均衡なパフォーマンスを緩和する。
提案手法の利点は, 顔特徴におけるアイデンティティ情報を保存しつつ, 下位次元特徴における人口統計学的知識を除去できることである。
- 参考スコア(独自算出の注目度): 62.35299218496926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are demographic biases in the SOTA CNN used for FR. Our BFW dataset
serves as a proxy to measure bias across ethnicity and gender subgroups,
allowing us to characterize FR performances per subgroup. We show performances
are non-optimal when a single score threshold is used to determine whether
sample pairs are genuine or imposter. Furthermore, actual performance ratings
vary greatly from the reported across subgroups. Thus, claims of specific error
rates only hold true for populations matching that of the validation data. We
mitigate the imbalanced performances using a novel domain adaptation learning
scheme on the facial encodings extracted using SOTA deep nets. Not only does
this technique balance performance, but it also boosts the overall performance.
A benefit of the proposed is to preserve identity information in facial
features while removing demographic knowledge in the lower dimensional
features. The removal of demographic knowledge prevents future potential biases
from being injected into decision-making. Additionally, privacy concerns are
satisfied by this removal. We explore why this works qualitatively with hard
samples. We also show quantitatively that subgroup classifiers can no longer
learn from the encodings mapped by the proposed.
- Abstract(参考訳): FRに使用されるSOTA CNNには人口統計バイアスがある。
我々のBFWデータセットは、民族と性別のサブグループ間のバイアスを測定するプロキシとして機能し、サブグループごとのFRパフォーマンスを特徴付けることができます。
サンプルペアが真か偽かを決定するために1つのスコアしきい値を使用する場合、性能が最適でないことを示す。
さらに、実際のパフォーマンス評価は、報告されたサブグループ間で大きく異なる。
したがって、特定のエラー率の主張は、検証データと一致する集団に対してのみ当てはまる。
我々は,SOTAディープネットを用いて抽出した顔符号化の領域適応学習方式を用いて,不均衡な性能を緩和する。
このテクニックはパフォーマンスのバランスを取るだけでなく、全体的なパフォーマンスも向上します。
提案手法の利点は, 顔特徴におけるアイデンティティ情報を保存しつつ, 下位次元特徴における人口統計学的知識を除去できることである。
人口統計知識の除去は、将来の潜在的なバイアスが意思決定に注入されるのを防ぐ。
さらに、この削除によってプライバシーの懸念が満たされる。
硬いサンプルで定性的に機能する理由を探る。
また,サブグループ分類器は,提案するエンコーディングから学習できないことを定量的に示す。
関連論文リスト
- Invariant Feature Regularization for Fair Face Recognition [45.23154294914808]
偏りのある特徴は少数派ではあまり一般化しないことを示す。
教師なしの方法で多様なデータ分割を反復的に生成することを提案する。
INV-REGは、様々な人口集団の顔認識を改善する新しい最先端技術をもたらす。
論文 参考訳(メタデータ) (2023-10-23T07:44:12Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Deep Learning on a Healthy Data Diet: Finding Important Examples for
Fairness [15.210232622716129]
データ駆動予測ソリューションは、主に商用アプリケーションで使われているが、バイアスやステレオタイプに悩まされる傾向がある。
データ拡張は、トレーニングデータセットに反実例を追加することで、性別バイアスを低減する。
拡張データセットのいくつかの例は、公平性には重要でも有害でもないことを示します。
論文 参考訳(メタデータ) (2022-11-20T22:42:30Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - On GANs perpetuating biases for face verification [75.99046162669997]
GANなどの生成モデルから生成されたデータにはバイアスや公平性の問題が伴う。
特に、FFHQデータセットでトレーニングされたGANは、20~29歳の年齢層で白人の顔を生成するバイアスを示している。
論文 参考訳(メタデータ) (2022-08-27T17:47:09Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Face Recognition: Too Bias, or Not Too Bias? [45.404162391012726]
我々は、最先端の顔認識システムにおけるバイアスの問題に対する批判的な洞察を明らかにする。
異なるサブグループにまたがる対面対の最適スコアしきい値の変動を示す。
また、人間の知覚にそのようなバイアスが存在するという仮説を支持する、人間のバイアスを測定するために、人間の評価を行う。
論文 参考訳(メタデータ) (2020-02-16T01:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。