論文の概要: On the Importance of Architectures and Hyperparameters for Fairness in
Face Recognition
- arxiv url: http://arxiv.org/abs/2210.09943v1
- Date: Tue, 18 Oct 2022 15:46:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 13:12:14.203002
- Title: On the Importance of Architectures and Hyperparameters for Fairness in
Face Recognition
- Title(参考訳): 顔認識における公平性のためのアーキテクチャとハイパーパラメータの重要性について
- Authors: Rhea Sukthanker, Samuel Dooley, John P. Dickerson, Colin White, Frank
Hutter, Micah Goldblum
- Abstract要約: 顔認識システムは、機密で影響力のあるタスクのために、政府機関や請負業者によって世界中に展開されている。
広く使われているにもかかわらず、これらのシステムは、性別や人種など、様々な社会デマグラフィー次元に偏見を示すことが知られている。
- 参考スコア(独自算出の注目度): 63.86246554567035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition systems are deployed across the world by government agencies
and contractors for sensitive and impactful tasks, such as surveillance and
database matching. Despite their widespread use, these systems are known to
exhibit bias across a range of sociodemographic dimensions, such as gender and
race. Nonetheless, an array of works proposing pre-processing, training, and
post-processing methods have failed to close these gaps. Here, we take a very
different approach to this problem, identifying that both architectures and
hyperparameters of neural networks are instrumental in reducing bias. We first
run a large-scale analysis of the impact of architectures and training
hyperparameters on several common fairness metrics and show that the implicit
convention of choosing high-accuracy architectures may be suboptimal for
fairness. Motivated by our findings, we run the first neural architecture
search for fairness, jointly with a search for hyperparameters. We output a
suite of models which Pareto-dominate all other competitive architectures in
terms of accuracy and fairness. Furthermore, we show that these models transfer
well to other face recognition datasets with similar and distinct protected
attributes. We release our code and raw result files so that researchers and
practitioners can replace our fairness metrics with a bias measure of their
choice.
- Abstract(参考訳): 顔認識システムは、監視やデータベースマッチングのような敏感で影響力のあるタスクのために、政府機関や請負業者によって世界中に展開されている。
広く使われているにもかかわらず、これらのシステムは、性別や人種など、様々な社会デマグラフィー次元に偏見を示すことが知られている。
それでも、前処理、トレーニング、後処理方法を提案する一連の作業は、これらのギャップを閉じることはできなかった。
ここでは、ニューラルネットワークのアーキテクチャとハイパーパラメータの両方がバイアスを減らすのに役立ちます。
まず、アーキテクチャの影響を大規模に分析し、いくつかの共通フェアネス指標に対するハイパーパラメータのトレーニングを行い、高い精度のアーキテクチャを選択するという暗黙の慣習がフェアネスに最適であることを示す。
我々の発見に動機づけられ、我々はハイパーパラメーターの探索と共同でフェアネスを探索する最初のニューラルアーキテクチャーを実行した。
パレートが他の全ての競合アーキテクチャを精度と公平性で支配する一連のモデルを出力する。
さらに,これらのモデルが,類似した保護属性を持つ他の顔認識データセットによく変換されることを示す。
私たちはコードと生の結果ファイルを公開し、研究者や実践者が私たちの公正度指標を彼らの選択のバイアス尺度に置き換えられるようにします。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Look Beyond Bias with Entropic Adversarial Data Augmentation [4.893694715581673]
ディープニューラルネットワークは、スパイラルパターンと因果パターンを区別せず、他を無視しながら最も予測的なパターンのみを学ぶ。
ネットワークをこのような刺激的なバイアスに頑健にするためにデバイアス法が開発されたが、データセットがバイアスを受けているかどうかを事前に知る必要がある。
本稿では,「隠された」因果情報がバイアス画像に含まれる場合が多いため,このようなサンプルは必ずしも必要ではない,と論じる。
論文 参考訳(メタデータ) (2023-01-10T08:25:24Z) - Addressing Bias in Face Detectors using Decentralised Data collection
with incentives [0.0]
我々は、このデータ中心のアプローチが、アルゴリズムの効率的なデータ収集を可能にするために、分散的にどのように促進されるかを示す。
FaceNet Embeddingsを用いたMultiTask Cascaded CNNを用いた顔検出および匿名化手法を提案する。
論文 参考訳(メタデータ) (2022-10-28T09:54:40Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。