論文の概要: Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition
- arxiv url: http://arxiv.org/abs/2210.09943v2
- Date: Sun, 29 Oct 2023 12:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 23:40:33.857821
- Title: Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition
- Title(参考訳): バイアス軽減の再考: より公正なアーキテクチャはより公平な顔認識を実現する
- Authors: Rhea Sanjay Sukthanker, Samuel Dooley, John P. Dickerson, Colin White,
Frank Hutter, Micah Goldblum
- Abstract要約: 顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
- 参考スコア(独自算出の注目度): 107.58227666024791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition systems are widely deployed in safety-critical applications,
including law enforcement, yet they exhibit bias across a range of
socio-demographic dimensions, such as gender and race. Conventional wisdom
dictates that model biases arise from biased training data. As a consequence,
previous works on bias mitigation largely focused on pre-processing the
training data, adding penalties to prevent bias from effecting the model during
training, or post-processing predictions to debias them, yet these approaches
have shown limited success on hard problems such as face recognition. In our
work, we discover that biases are actually inherent to neural network
architectures themselves. Following this reframing, we conduct the first neural
architecture search for fairness, jointly with a search for hyperparameters.
Our search outputs a suite of models which Pareto-dominate all other
high-performance architectures and existing bias mitigation methods in terms of
accuracy and fairness, often by large margins, on the two most widely used
datasets for face identification, CelebA and VGGFace2. Furthermore, these
models generalize to other datasets and sensitive attributes. We release our
code, models and raw data files at https://github.com/dooleys/FR-NAS.
- Abstract(参考訳): 顔認識システムは、法執行機関を含む安全クリティカルなアプリケーションで広く利用されているが、性別や人種など、さまざまな社会デミック次元に偏りがある。
従来の知識では、モデルのバイアスはバイアスのあるトレーニングデータから生じる。
その結果、バイアス緩和に関する以前の研究は、トレーニングデータの前処理に重点を置いており、トレーニング中にモデルにバイアスが影響することを防ぐためのペナルティを追加したり、それらを弱めるための後処理予測を加えたりしている。
私たちの研究では、バイアスはニューラルネットワークアーキテクチャ自体に固有のものであることが分かりました。
この再フレーミングに続いて、超パラメータの探索と共同で、最初のフェアネスのニューラルアーキテクチャ探索を行う。
我々の検索では,顔識別のための最も広く使われている2つのデータセットであるCelebAとVGGFace2に基づいて,他の高性能アーキテクチャや既存のバイアス軽減手法を精度と公平性の観点から支配するモデル群を出力する。
さらに、これらのモデルは、他のデータセットと繊細な属性に一般化する。
コード、モデル、生のデータファイルをhttps://github.com/dooleys/FR-NASでリリースします。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Look Beyond Bias with Entropic Adversarial Data Augmentation [4.893694715581673]
ディープニューラルネットワークは、スパイラルパターンと因果パターンを区別せず、他を無視しながら最も予測的なパターンのみを学ぶ。
ネットワークをこのような刺激的なバイアスに頑健にするためにデバイアス法が開発されたが、データセットがバイアスを受けているかどうかを事前に知る必要がある。
本稿では,「隠された」因果情報がバイアス画像に含まれる場合が多いため,このようなサンプルは必ずしも必要ではない,と論じる。
論文 参考訳(メタデータ) (2023-01-10T08:25:24Z) - Addressing Bias in Face Detectors using Decentralised Data collection
with incentives [0.0]
我々は、このデータ中心のアプローチが、アルゴリズムの効率的なデータ収集を可能にするために、分散的にどのように促進されるかを示す。
FaceNet Embeddingsを用いたMultiTask Cascaded CNNを用いた顔検出および匿名化手法を提案する。
論文 参考訳(メタデータ) (2022-10-28T09:54:40Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。