論文の概要: On Fairness and Stability: Is Estimator Variance a Friend or a Foe?
- arxiv url: http://arxiv.org/abs/2302.04525v1
- Date: Thu, 9 Feb 2023 09:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 16:20:46.003706
- Title: On Fairness and Stability: Is Estimator Variance a Friend or a Foe?
- Title(参考訳): フェアネスと安定性について:推定変数は友人か笛か?
- Authors: Falaah Arif Khan, Denys Herasymuk, Julia Stoyanovich
- Abstract要約: 分散度におけるグループワイドパリティに基づく新しいパフォーマンス指標群を提案する。
フェアネス分析による不確実性定量化手法を再現したオープンソースライブラリを開発し,リリースする。
- 参考スコア(独自算出の注目度): 6.751310968561177
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The error of an estimator can be decomposed into a (statistical) bias term, a
variance term, and an irreducible noise term. When we do bias analysis,
formally we are asking the question: "how good are the predictions?" The role
of bias in the error decomposition is clear: if we trust the labels/targets,
then we would want the estimator to have as low bias as possible, in order to
minimize error. Fair machine learning is concerned with the question: "Are the
predictions equally good for different demographic/social groups?" This has
naturally led to a variety of fairness metrics that compare some measure of
statistical bias on subsets corresponding to socially privileged and socially
disadvantaged groups. In this paper we propose a new family of performance
measures based on group-wise parity in variance. We demonstrate when group-wise
statistical bias analysis gives an incomplete picture, and what group-wise
variance analysis can tell us in settings that differ in the magnitude of
statistical bias. We develop and release an open-source library that reconciles
uncertainty quantification techniques with fairness analysis, and use it to
conduct an extensive empirical analysis of our variance-based fairness measures
on standard benchmarks.
- Abstract(参考訳): 推定器の誤差は(統計的)バイアス項、分散項、既約雑音項に分解することができる。
バイアス分析を行う場合,正式には“予測はどの程度良好か?
エラー分解におけるバイアスの役割は明確です – ラベルやターゲットを信頼すれば、エラーを最小限に抑えるために、推定器に可能な限り低いバイアスを持たせたいと考えています。
公平な機械学習は、"予測は、異なる人口層/社会グループに等しく良いのか?
これは自然に、社会的特権と社会的に不利なグループに対応するサブセットに対する統計バイアスのいくつかの尺度を比較する様々な公正度指標につながった。
本稿では,分散におけるグループワイドパリティに基づくパフォーマンス対策の新たなファミリーを提案する。
統計的偏差分析が不完全像を与える場合と, 統計的偏差の程度が異なる設定において, 集団偏差解析が何を示すかを示す。
我々は,不確実性定量化手法をフェアネス解析と照合するオープンソースライブラリを開発し,その利用により,標準ベンチマークにおける分散に基づくフェアネス測定の広範な実証分析を行う。
関連論文リスト
- Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - It's an Alignment, Not a Trade-off: Revisiting Bias and Variance in Deep
Models [51.66015254740692]
深層学習に基づく分類モデルのアンサンブルでは, バイアスと分散がサンプルレベルで一致していることが示される。
我々はこの現象をキャリブレーションと神経崩壊という2つの理論的観点から研究する。
論文 参考訳(メタデータ) (2023-10-13T17:06:34Z) - Arbitrariness and Social Prediction: The Confounding Role of Variance in
Fair Classification [31.392067805022414]
異なる訓練されたモデル間での予測のばらつきは、公正なバイナリ分類における重要な、未探索のエラーの原因である。
実際には、いくつかのデータ例のばらつきは非常に大きいので、決定を効果的に任意にすることができる。
予測が任意である場合に分類を省略するアンサンブルアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-27T06:52:04Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Model Mis-specification and Algorithmic Bias [0.0]
機械学習アルゴリズムは、批判的な決定を伝えるためにますます使われています。
偏見に対する懸念が高まっており、アルゴリズムは異なる人口集団の個人に対して不均一な結果をもたらす可能性がある。
本研究では,グループ間の平均予測誤差の差として偏差を測定する。
論文 参考訳(メタデータ) (2021-05-31T17:45:12Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - The statistical advantage of automatic NLG metrics at the system level [10.540821585237222]
統計的には、人間は偏りがなく、高分散推定器であり、メトリクスは偏りがあり、低分散推定器である。
ブートストラップを用いて、これらの推定器の誤差をペアワイズ予測(どの生成システムが優れているか?)で比較する。
分析では,測定値の補正誤差を人間と完全セグメントレベルのアノテータと比較した。
論文 参考訳(メタデータ) (2021-05-26T09:53:57Z) - Individual Calibration with Randomized Forecasting [116.2086707626651]
予測値がランダムに設定された場合,各サンプルのキャリブレーションは回帰設定で可能であることを示す。
我々は、個別の校正を強制する訓練目標を設計し、それをランダム化された回帰関数の訓練に使用する。
論文 参考訳(メタデータ) (2020-06-18T05:53:10Z) - Is Your Classifier Actually Biased? Measuring Fairness under Uncertainty
with Bernstein Bounds [21.598196899084268]
我々は、偏差推定の不確かさを信頼区間としてベルンシュタイン境界を用いて表現する。
95%の信頼区間が真のバイアスを常に束縛しているという経験的証拠を提供する。
以上の結果から,現在偏差を測定するために使用されているデータセットは,最も厳密な場合を除き,偏差を確定的に識別するには小さすぎることが示唆された。
論文 参考訳(メタデータ) (2020-04-26T09:45:45Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。