論文の概要: The Disparate Impact of Uncertainty: Affirmative Action vs. Affirmative
Information
- arxiv url: http://arxiv.org/abs/2102.10019v5
- Date: Thu, 8 Feb 2024 18:58:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 20:08:14.432256
- Title: The Disparate Impact of Uncertainty: Affirmative Action vs. Affirmative
Information
- Title(参考訳): 不確実性の異なる影響:肯定的行動と肯定的情報
- Authors: Claire Lazar Reich
- Abstract要約: 平均的な結果の高い群は、通常、高い偽陽性率を割り当てられる。
データセットから人口統計変数を省略する直感的な治療法が、それを修正しない理由を説明している。
本稿では,データ欠落の代わりに,データ富化が機会へのアクセスをいかに拡大するかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Critical decisions like hiring, college admissions, and loan approvals are
guided by predictions made in the presence of uncertainty. While uncertainty
imparts errors across all demographic groups, this paper shows that the types
of errors vary systematically: Groups with higher average outcomes are
typically assigned higher false positive rates, while those with lower average
outcomes are assigned higher false negative rates. We characterize the
conditions that give rise to this disparate impact and explain why the
intuitive remedy to omit demographic variables from datasets does not correct
it. Instead of data omission, this paper examines how data enrichment can
broaden access to opportunity. The strategy, which we call "Affirmative
Information," could stand as an alternative to Affirmative Action.
- Abstract(参考訳): 雇用、大学入学、ローン承認などの決定は、不確実性の存在下での予測によって導かれる。
不確実性はすべての人口集団に誤りをもたらすが、エラーの種類は系統的に異なる: 平均的な結果が高いグループは通常、偽陽性率が高く、平均的な結果が低いグループは偽陰性率が高いグループである。
この異なる影響を引き起こす条件を特徴付け、データセットから人口統計変数を省略する直感的な修正がそれを修正しない理由を説明する。
本稿では,データエンリッチメントが機会へのアクセスを広げる方法について検討する。
Affirmative Information”と呼ばれるこの戦略は、Affirmative Actionの代替となるかもしれません。
関連論文リスト
- De-Biasing Models of Biased Decisions: A Comparison of Methods Using Mortgage Application Data [0.0]
本稿では、住宅ローン申請決定の実データに反実的(シミュレートされた)民族バイアスを加える。
このバイアスは、民族が予測変数として使用されていない場合でも、機械学習モデル(XGBoost)によって再現される。
論文 参考訳(メタデータ) (2024-05-01T23:46:44Z) - Mitigating Biases in Collective Decision-Making: Enhancing Performance in the Face of Fake News [4.413331329339185]
これらのバイアスが偽ニュースの広範的問題に与える影響を、偽ニュースの見出しを識別する人間の能力を評価することによって検討する。
センシティブな特徴を含む見出しに焦点を合わせることで、人間の反応がバイアスによってどのように形作られるかを探るため、包括的なデータセットを集めます。
人口統計学的要因,見出しカテゴリー,情報の提示方法が人的判断の誤りに大きく影響していることを示す。
論文 参考訳(メタデータ) (2024-03-11T12:08:08Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Mitigating Label Bias in Machine Learning: Fairness through Confident
Learning [22.031325797588476]
偏見のないラベルが潜在的なバイアスを持つエージェントによって上書きされると、識別が生じることがある。
本稿では,自信ある学習の枠組みの中で,最も公平なインスタンスをフィルタリングすることで,バイアスを排除できることを実証する。
論文 参考訳(メタデータ) (2023-12-14T08:55:38Z) - Unbiased Decisions Reduce Regret: Adversarial Domain Adaptation for the
Bank Loan Problem [21.43618923706602]
データポイントがプリンシパルによって正のラベルを割り当てられた場合にのみ、真のラベルが観察される。
本稿では、対向ドメイン適応を用いたトレーニングセットのバイアスに直接対処するために、対向最適化(AdOpt)を導入する。
論文 参考訳(メタデータ) (2023-08-15T21:35:44Z) - Correcting Underrepresentation and Intersectional Bias for Fair
Classification [55.2480439325792]
偏見バイアスによって劣化したデータから学習する問題について考察し, 正の例を, 一定の数のセンシティブなグループに対して, 異なる未知のレートでフィルタする。
交叉群のメンバーシップが各交叉率を計算不能にするような設定であっても,少数の偏りのないデータを用いてグループワイド・ドロップアウトパラメータを効率的に推定できることが示される。
我々は,この学習と再重み付け過程をカプセル化するアルゴリズムを提案し,高い確率で真の分布に対する仮説のリスクが任意に近いことをPACスタイルの強い保証を提供する。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Leveraging Administrative Data for Bias Audits: Assessing Disparate
Coverage with Mobility Data for COVID-19 Policy [61.60099467888073]
管理データのリンクによって,バイアスに対するモビリティデータの監査が可能かを示す。
我々は、高齢者や非白人の有権者が移動データによって捕えられる可能性が低いことを示した。
このような移動データに基づく公衆衛生資源の配分は、高リスク高齢者や少数民族に不当に害を与える可能性があることを示す。
論文 参考訳(メタデータ) (2020-11-14T02:04:14Z) - Unfairness Discovery and Prevention For Few-Shot Regression [9.95899391250129]
歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
論文 参考訳(メタデータ) (2020-09-23T22:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。