論文の概要: Risk Scores, Label Bias, and Everything but the Kitchen Sink
- arxiv url: http://arxiv.org/abs/2305.12638v1
- Date: Mon, 22 May 2023 02:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:07:34.061842
- Title: Risk Scores, Label Bias, and Everything but the Kitchen Sink
- Title(参考訳): リスクスコア、ラベルバイアス、キッチンシンク以外はすべて
- Authors: Michael Zanger-Tishler, Julian Nyarko, and Sharad Goel
- Abstract要約: リスクアセスメントアルゴリズムは、真の結果のプロキシを予測するために訓練された時に失敗することが多いことを示す。
このような「ラベルバイアス」では、プロキシとの相関や真の結果との相関が反対の符号を持つような特徴を排除すべきである。
例えば、警察の配置パターンにより、犯罪行動と地理は弱い相関関係にあり、犯罪記録の直接的な原因となる可能性がある。
- 参考スコア(独自算出の注目度): 1.9006392177894293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In designing risk assessment algorithms, many scholars promote a "kitchen
sink" approach, reasoning that more information yields more accurate
predictions. We show, however, that this rationale often fails when algorithms
are trained to predict a proxy of the true outcome, as is typically the case.
With such "label bias", one should exclude a feature if its correlation with
the proxy and its correlation with the true outcome have opposite signs,
conditional on the other model features. This criterion is often satisfied when
a feature is weakly correlated with the true outcome, and, additionally, that
feature and the true outcome are both direct causes of the remaining features.
For example, due to patterns of police deployment, criminal behavior and
geography may be weakly correlated and direct causes of one's criminal record,
suggesting one should exclude geography in criminal risk assessments trained to
predict arrest as a proxy for behavior.
- Abstract(参考訳): リスクアセスメントアルゴリズムの設計において、多くの学者は「キッチンシンク」アプローチを推進し、より多くの情報がより正確な予測をもたらすことを推論する。
しかし、通常の場合のように、アルゴリズムが真の結果のプロキシを予測するように訓練された場合、この理論は失敗することが多い。
このような「ラベルバイアス」では、プロキシとの相関と真の結果との相関が反対の符号を持つ場合、他のモデルの特徴に条件付きで特徴を排除すべきである。
この基準は、機能が本当の結果と弱い相関関係にある場合にしばしば満足され、さらに、その特徴と真の結果が、残りの機能の直接的な原因である。
例えば、警察の配置パターンにより、犯罪行動と地理は弱く相関し、犯罪記録の直接の原因となる可能性があり、逮捕を行動の代理として予測するために訓練された犯罪リスクアセスメントの地理を除外すべきだと示唆する。
関連論文リスト
- Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Counterfactual Reasoning for Bias Evaluation and Detection in a Fairness
under Unawareness setting [6.004889078682389]
現在のAI規制では、不公平な結果を防ぐために、アルゴリズムの意思決定プロセスで機密機能を破棄する必要がある。
本稿では、機密機能が破棄された場合でも継続可能な機械学習モデルの潜在的な隠れバイアスを明らかにする方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T10:36:18Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Causal Forecasting:Generalization Bounds for Autoregressive Models [19.407531303870087]
本稿では,予測のための「因果学習理論」の枠組みを紹介する。
統計的リスクと因果リスクの違いを特徴付ける。
これは時系列設定における因果一般化の理論的保証を提供する最初の研究である。
論文 参考訳(メタデータ) (2021-11-18T17:56:20Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - A fuzzy-rough uncertainty measure to discover bias encoded explicitly or
implicitly in features of structured pattern classification datasets [0.0]
保護属性と非保護属性の相関によって定義された非保護特徴に暗黙的に符号化されたバイアスの存在について検討した。
境界領域の変化を最も捉えるファジィ演算子と距離関数を決定するために感度解析を行う。
論文 参考訳(メタデータ) (2021-08-20T10:27:32Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Towards Error Measures which Influence a Learners Inductive Bias to the
Ground Truth [0.0]
本論文では,スパースデータを用いたシナリオにおける「基底真理」をモデル化する回帰的手法の能力にエラー対策がどう影響するかを検討する。
現在の誤差尺度は役に立たないバイアスを生じさせ、この振る舞いを示さない新しい誤差尺度が導出される。
論文 参考訳(メタデータ) (2021-05-04T15:33:58Z) - Predicting Early Dropout: Calibration and Algorithmic Fairness
Considerations [2.7048165023994057]
本研究では,大学中退のリスクを予測できる機械学習手法を開発した。
予測精度(AUC)および誤差率(一般化偽陽性率、GFPR、一般化偽陰性率、GFNR)の観点から、この方法が一部の敏感群の識別結果につながるかどうかを分析します。
論文 参考訳(メタデータ) (2021-03-16T13:42:16Z) - Learning Causal Semantic Representation for Out-of-Distribution
Prediction [125.38836464226092]
因果推論に基づく因果意味生成モデル(CSG)を提案し,その2つの要因を別々にモデル化する。
CSGはトレーニングデータに適合させることで意味的因子を識別できることを示し、この意味的識別はOOD一般化誤差の有界性を保証する。
論文 参考訳(メタデータ) (2020-11-03T13:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。