論文の概要: BaBE: Enhancing Fairness via Estimation of Latent Explaining Variables
- arxiv url: http://arxiv.org/abs/2307.02891v1
- Date: Thu, 6 Jul 2023 09:53:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 14:24:45.644189
- Title: BaBE: Enhancing Fairness via Estimation of Latent Explaining Variables
- Title(参考訳): BaBE: 遅延説明変数の推定によるフェアネスの向上
- Authors: Ruta Binkyte, Daniele Gorla, Catuscia Palamidessi
- Abstract要約: 両集団間の不公平な差別の問題を考察し,公平性を達成するための事前処理手法を提案する。
BaBEはベイズ推論と期待最大化法を組み合わせたアプローチである。
合成および実データ集合の実験により、我々の手法は高い精度と高い公平性を提供することを示した。
- 参考スコア(独自算出の注目度): 4.157415305926584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of unfair discrimination between two groups and
propose a pre-processing method to achieve fairness. Corrective methods like
statistical parity usually lead to bad accuracy and do not really achieve
fairness in situations where there is a correlation between the sensitive
attribute S and the legitimate attribute E (explanatory variable) that should
determine the decision. To overcome these drawbacks, other notions of fairness
have been proposed, in particular, conditional statistical parity and equal
opportunity. However, E is often not directly observable in the data, i.e., it
is a latent variable. We may observe some other variable Z representing E, but
the problem is that Z may also be affected by S, hence Z itself can be biased.
To deal with this problem, we propose BaBE (Bayesian Bias Elimination), an
approach based on a combination of Bayes inference and the
Expectation-Maximization method, to estimate the most likely value of E for a
given Z for each group. The decision can then be based directly on the
estimated E. We show, by experiments on synthetic and real data sets, that our
approach provides a good level of fairness as well as high accuracy.
- Abstract(参考訳): 両グループ間の不公平な差別の問題を検討し,公平性を達成するための前処理法を提案する。
統計的パリティのような補正法は通常、不正確さを生じさせ、敏感な属性sと正当な属性e(説明変数)との間に相関がある場合、実際には公平性が得られない。
これらの欠点を克服するために、他の公平性の概念、特に条件付き統計パリティと平等機会が提案されている。
しかし、E はデータの中で直接観測できないことが多い、すなわち潜時変数である。
E を表す他の変数 Z も観測できるが、問題は Z が S に影響される可能性があり、したがって Z 自身はバイアスを受けることができることである。
この問題に対処するため、ベイズ推論と期待最大化法の組み合わせに基づくアプローチであるBaBE(Bayesian Bias Elimination)を提案し、各群に対して与えられたZに対してEの最も可能性の高い値を推定する。
合成および実データ集合の実験によって、我々のアプローチは、高い正確性とともに十分な公平性を提供することが示された。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - On the impossibility of non-trivial accuracy under fairness constraints [26.418304315499064]
機械学習(ML)における公正性に関する主な懸念の1つは、それを達成するためには、ある程度の正確さを放棄する必要があることである。
この結果から,EO(Equal chance)が達成できる確率的データソースは,精度の低下によってのみ達成できることが示唆された。
論文 参考訳(メタデータ) (2021-07-14T19:15:50Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Fair Regression with Wasserstein Barycenters [39.818025466204055]
本稿では, 実数値関数を学習し, 実数値関数の制約を満たす問題について検討する。
予測された出力の分布は、センシティブな属性から独立することを要求する。
フェア回帰と最適輸送理論の関連性を確立し、最適なフェア予測器に対するクローズドフォーム表現を導出する。
論文 参考訳(メタデータ) (2020-06-12T16:10:41Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。