論文の概要: Are Two Heads the Same as One? Identifying Disparate Treatment in Fair
Neural Networks
- arxiv url: http://arxiv.org/abs/2204.04440v1
- Date: Sat, 9 Apr 2022 10:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 17:03:45.000502
- Title: Are Two Heads the Same as One? Identifying Disparate Treatment in Fair
Neural Networks
- Title(参考訳): 2つの頭は1と同じか?
公平ニューラルネットワークにおける異種処理の同定
- Authors: Michael Lohaus, Matth\"aus Kleindessner, Krishnaram Kenthapadi,
Francesco Locatello, Chris Russell
- Abstract要約: 人口密度を満足するディープニューラルネットワークは、人種や性意識の形で実現可能であることを示す。
フェアネスを強制する簡単な2段階の解法を提案する。
- 参考スコア(独自算出の注目度): 38.14455334700671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that deep neural networks that satisfy demographic parity do so
through a form of race or gender awareness, and that the more we force a
network to be fair, the more accurately we can recover race or gender from the
internal state of the network. Based on this observation, we propose a simple
two-stage solution for enforcing fairness. First, we train a two-headed network
to predict the protected attribute (such as race or gender) alongside the
original task, and second, we enforce demographic parity by taking a weighted
sum of the heads. In the end, this approach creates a single-headed network
with the same backbone architecture as the original network. Our approach has
near identical performance compared to existing regularization-based or
preprocessing methods, but has greater stability and higher accuracy where near
exact demographic parity is required. To cement the relationship between these
two approaches, we show that an unfair and optimally accurate classifier can be
recovered by taking a weighted sum of a fair classifier and a classifier
predicting the protected attribute. We use this to argue that both the fairness
approaches and our explicit formulation demonstrate disparate treatment and
that, consequentially, they are likely to be unlawful in a wide range of
scenarios under the US law.
- Abstract(参考訳): 人口格差を満足する深層ニューラルネットワークは、人種や性意識の形でそれを実現し、ネットワークを公平に強制すればするほど、ネットワークの内部状態から人種や性別を回復できることを示した。
この観測に基づいて、フェアネスを強制する簡単な2段階の解法を提案する。
まず、元のタスクと並んで保護された属性(人種や性別など)を予測するために、2つの頭部ネットワークをトレーニングし、第2に、頭部の重み付けをすることで、人口の平等を強制する。
最終的に、このアプローチは、元のネットワークと同じバックボーンアーキテクチャを持つシングルヘッドネットワークを生成する。
提案手法は,従来の正規化法や前処理法とほぼ同等の性能を持つが,より安定性が高く,精度も高い。
これら2つの手法の関連性を強化するため、公平な分類器と保護属性を予測する分類器を重み付けして、不公平かつ最適な分類器を復元できることを示す。
我々は、公正なアプローチと明示的な定式化の両方が異なる扱いを示しており、その結果、米国法の下で広範囲のシナリオで違法である可能性が高いと論じる。
関連論文リスト
- Counterfactual Fairness for Predictions using Generative Adversarial
Networks [28.65556399421874]
我々は, 対実フェアネスの下で予測を行うための, GCFN (Generative Counterfactual Fairness Network) と呼ばれる新しいディープニューラルネットワークを開発した。
本手法は, 対実的公正性の概念を保証するために数学的に保証されている。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - CertiFair: A Framework for Certified Global Fairness of Neural Networks [1.4620086904601473]
個人の公正さは、あるタスクに関して類似した個人が、ニューラルネットワーク(NN)モデルで同じように扱われることを示唆している。
分類タスクにおいて、所定のNNに対してフェアネス特性が保持するかどうかを確認する検証器を構築する。
次に、結果のNNの公平性に関する証明可能なバウンダリを提供する。
論文 参考訳(メタデータ) (2022-05-20T02:08:47Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Probabilistic Verification of Neural Networks Against Group Fairness [21.158245095699456]
本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
論文 参考訳(メタデータ) (2021-07-18T04:34:31Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - FaiR-N: Fair and Robust Neural Networks for Structured Data [10.14835182649819]
決定境界に対するデータポイントの距離を考慮したニューラルネットワークのトレーニングのための新しい定式化を提案する。
この損失でトレーニングすることで、トレーニングなしでトレーニングされたモデルと同じような精度で、より公平で堅牢なニューラルネットワークが得られることを示す。
論文 参考訳(メタデータ) (2020-10-13T01:53:15Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。