論文の概要: Resolving the Disparate Impact of Uncertainty: Affirmative Action vs.
Affirmative Information
- arxiv url: http://arxiv.org/abs/2102.10019v1
- Date: Fri, 19 Feb 2021 16:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 13:30:07.168583
- Title: Resolving the Disparate Impact of Uncertainty: Affirmative Action vs.
Affirmative Information
- Title(参考訳): 不確かさの異なる影響を解消する:肯定的行動 vs.
肯定情報
- Authors: Claire Lazar Reich
- Abstract要約: 予測の不確実性は、しばしば分類器を低平均結果の系統的に不利なグループに導くことを示す。
これらの誤りの不均衡を避けるために、下位平均群の個人は正の分類で過剰に表現されるか、上位平均群の個人よりも正確な予測を割り当てなければならない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic risk assessments hold the promise of greatly advancing accurate
decision-making, but in practice, multiple real-world examples have been shown
to distribute errors disproportionately across demographic groups. In this
paper, we characterize why error disparities arise in the first place. We show
that predictive uncertainty often leads classifiers to systematically
disadvantage groups with lower-mean outcomes, assigning them smaller true and
false positive rates than their higher-mean counterparts. This can occur even
when prediction is group-blind. We prove that to avoid these error imbalances,
individuals in lower-mean groups must either be over-represented among positive
classifications or be assigned more accurate predictions than those in
higher-mean groups. We focus on the latter condition as a solution to bridge
error rate divides and show that data acquisition for low-mean groups can
increase access to opportunity. We call the strategy "affirmative information"
and compare it to traditional affirmative action in the classification task of
identifying creditworthy borrowers.
- Abstract(参考訳): アルゴリズムによるリスクアセスメントは、正確な意思決定を著しく前進させるという約束を持っているが、実際には、複数の現実の例が、集団間で不釣り合いにエラーを分散することが示されている。
本論文では、なぜエラーの格差が発生するのかを特徴づける。
予測の不確実性は、しばしば分類器を低平均結果の体系的に不利なグループに導くことを示し、それらが上位平均結果よりも小さい真偽正の比率を割り当てる。
これは、予測がグループ盲検でも発生します。
これらの誤りの不均衡を避けるために、下位平均群の個人は正の分類で過剰に表現されるか、上位平均群の個人よりも正確な予測を割り当てなければならない。
我々は,誤り率分割をブリッジする解法として後者の条件に注目し,低平均群におけるデータ取得が機会へのアクセスを増大させることを示す。
我々は,この戦略を「確認情報」と呼び,信用力のある借主を識別する分類タスクにおいて,従来の肯定的行動と比較する。
関連論文リスト
- Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fighting Sampling Bias: A Framework for Training and Evaluating Credit Scoring Models [2.918530881730374]
本稿では,サンプリングバイアスがモデルトレーニングおよび評価に与える影響について考察する。
スコアカード評価のためのバイアス認識型自己学習と拒絶推論フレームワークを提案する。
その結果,ベイズ評価を用いて受入率を決定する場合,利益率が約8%向上することが示唆された。
論文 参考訳(メタデータ) (2024-07-17T20:59:54Z) - De-Biasing Models of Biased Decisions: A Comparison of Methods Using Mortgage Application Data [0.0]
本稿では、住宅ローン申請決定の実データに反実的(シミュレートされた)民族バイアスを加える。
このバイアスは、民族が予測変数として使用されていない場合でも、機械学習モデル(XGBoost)によって再現される。
論文 参考訳(メタデータ) (2024-05-01T23:46:44Z) - Mitigating Label Bias in Machine Learning: Fairness through Confident
Learning [22.031325797588476]
偏見のないラベルが潜在的なバイアスを持つエージェントによって上書きされると、識別が生じることがある。
本稿では,自信ある学習の枠組みの中で,最も公平なインスタンスをフィルタリングすることで,バイアスを排除できることを実証する。
論文 参考訳(メタデータ) (2023-12-14T08:55:38Z) - Unbiased Decisions Reduce Regret: Adversarial Domain Adaptation for the
Bank Loan Problem [21.43618923706602]
データポイントがプリンシパルによって正のラベルを割り当てられた場合にのみ、真のラベルが観察される。
本稿では、対向ドメイン適応を用いたトレーニングセットのバイアスに直接対処するために、対向最適化(AdOpt)を導入する。
論文 参考訳(メタデータ) (2023-08-15T21:35:44Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Leveraging Administrative Data for Bias Audits: Assessing Disparate
Coverage with Mobility Data for COVID-19 Policy [61.60099467888073]
管理データのリンクによって,バイアスに対するモビリティデータの監査が可能かを示す。
我々は、高齢者や非白人の有権者が移動データによって捕えられる可能性が低いことを示した。
このような移動データに基づく公衆衛生資源の配分は、高リスク高齢者や少数民族に不当に害を与える可能性があることを示す。
論文 参考訳(メタデータ) (2020-11-14T02:04:14Z) - Unfairness Discovery and Prevention For Few-Shot Regression [9.95899391250129]
歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
論文 参考訳(メタデータ) (2020-09-23T22:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。