論文の概要: Resolving the Disparate Impact of Uncertainty: Affirmative Action vs.
Affirmative Information
- arxiv url: http://arxiv.org/abs/2102.10019v1
- Date: Fri, 19 Feb 2021 16:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 13:30:07.168583
- Title: Resolving the Disparate Impact of Uncertainty: Affirmative Action vs.
Affirmative Information
- Title(参考訳): 不確かさの異なる影響を解消する:肯定的行動 vs.
肯定情報
- Authors: Claire Lazar Reich
- Abstract要約: 予測の不確実性は、しばしば分類器を低平均結果の系統的に不利なグループに導くことを示す。
これらの誤りの不均衡を避けるために、下位平均群の個人は正の分類で過剰に表現されるか、上位平均群の個人よりも正確な予測を割り当てなければならない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic risk assessments hold the promise of greatly advancing accurate
decision-making, but in practice, multiple real-world examples have been shown
to distribute errors disproportionately across demographic groups. In this
paper, we characterize why error disparities arise in the first place. We show
that predictive uncertainty often leads classifiers to systematically
disadvantage groups with lower-mean outcomes, assigning them smaller true and
false positive rates than their higher-mean counterparts. This can occur even
when prediction is group-blind. We prove that to avoid these error imbalances,
individuals in lower-mean groups must either be over-represented among positive
classifications or be assigned more accurate predictions than those in
higher-mean groups. We focus on the latter condition as a solution to bridge
error rate divides and show that data acquisition for low-mean groups can
increase access to opportunity. We call the strategy "affirmative information"
and compare it to traditional affirmative action in the classification task of
identifying creditworthy borrowers.
- Abstract(参考訳): アルゴリズムによるリスクアセスメントは、正確な意思決定を著しく前進させるという約束を持っているが、実際には、複数の現実の例が、集団間で不釣り合いにエラーを分散することが示されている。
本論文では、なぜエラーの格差が発生するのかを特徴づける。
予測の不確実性は、しばしば分類器を低平均結果の体系的に不利なグループに導くことを示し、それらが上位平均結果よりも小さい真偽正の比率を割り当てる。
これは、予測がグループ盲検でも発生します。
これらの誤りの不均衡を避けるために、下位平均群の個人は正の分類で過剰に表現されるか、上位平均群の個人よりも正確な予測を割り当てなければならない。
我々は,誤り率分割をブリッジする解法として後者の条件に注目し,低平均群におけるデータ取得が機会へのアクセスを増大させることを示す。
我々は,この戦略を「確認情報」と呼び,信用力のある借主を識別する分類タスクにおいて,従来の肯定的行動と比較する。
関連論文リスト
- Mitigating Biases in Collective Decision-Making: Enhancing Performance in the Face of Fake News [4.413331329339185]
これらのバイアスが偽ニュースの広範的問題に与える影響を、偽ニュースの見出しを識別する人間の能力を評価することによって検討する。
センシティブな特徴を含む見出しに焦点を合わせることで、人間の反応がバイアスによってどのように形作られるかを探るため、包括的なデータセットを集めます。
人口統計学的要因,見出しカテゴリー,情報の提示方法が人的判断の誤りに大きく影響していることを示す。
論文 参考訳(メタデータ) (2024-03-11T12:08:08Z) - The Impact of Differential Feature Under-reporting on Algorithmic
Fairness [94.24956808302319]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Mitigating Label Bias in Machine Learning: Fairness through Confident
Learning [22.031325797588476]
偏見のないラベルが潜在的なバイアスを持つエージェントによって上書きされると、識別が生じることがある。
本稿では,自信ある学習の枠組みの中で,最も公平なインスタンスをフィルタリングすることで,バイアスを排除できることを実証する。
論文 参考訳(メタデータ) (2023-12-14T08:55:38Z) - Unbiased Decisions Reduce Regret: Adversarial Domain Adaptation for the
Bank Loan Problem [21.43618923706602]
データポイントがプリンシパルによって正のラベルを割り当てられた場合にのみ、真のラベルが観察される。
本稿では、対向ドメイン適応を用いたトレーニングセットのバイアスに直接対処するために、対向最適化(AdOpt)を導入する。
論文 参考訳(メタデータ) (2023-08-15T21:35:44Z) - Correcting Underrepresentation and Intersectional Bias for Fair
Classification [55.2480439325792]
偏見バイアスによって劣化したデータから学習する問題について考察し, 正の例を, 一定の数のセンシティブなグループに対して, 異なる未知のレートでフィルタする。
交叉群のメンバーシップが各交叉率を計算不能にするような設定であっても,少数の偏りのないデータを用いてグループワイド・ドロップアウトパラメータを効率的に推定できることが示される。
我々は,この学習と再重み付け過程をカプセル化するアルゴリズムを提案し,高い確率で真の分布に対する仮説のリスクが任意に近いことをPACスタイルの強い保証を提供する。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Leveraging Administrative Data for Bias Audits: Assessing Disparate
Coverage with Mobility Data for COVID-19 Policy [61.60099467888073]
管理データのリンクによって,バイアスに対するモビリティデータの監査が可能かを示す。
我々は、高齢者や非白人の有権者が移動データによって捕えられる可能性が低いことを示した。
このような移動データに基づく公衆衛生資源の配分は、高リスク高齢者や少数民族に不当に害を与える可能性があることを示す。
論文 参考訳(メタデータ) (2020-11-14T02:04:14Z) - Dropping Standardized Testing for Admissions Trades Off Information and
Access [2.354619015221828]
フェアネスを考慮したキャパシティ制約選択問題における情報とアクセスの役割について検討する。
我々は,各応募者が複数の特徴を持ち,潜在的に戦略的である理論的統計的識別フレームワークを開発する。
当社の枠組みは,大学入試における標準化試験の廃止に関する最近の政策討論への自然な応用を見出したものである。
論文 参考訳(メタデータ) (2020-10-09T07:07:28Z) - Unfairness Discovery and Prevention For Few-Shot Regression [9.95899391250129]
歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
論文 参考訳(メタデータ) (2020-09-23T22:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。