論文の概要: Black Loans Matter: Distributionally Robust Fairness for Fighting
Subgroup Discrimination
- arxiv url: http://arxiv.org/abs/2012.01193v1
- Date: Fri, 27 Nov 2020 21:04:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-22 20:21:36.987971
- Title: Black Loans Matter: Distributionally Robust Fairness for Fighting
Subgroup Discrimination
- Title(参考訳): ブラックローン問題:サブグループ差別と戦うための分配的ロバストな公平性
- Authors: Mark Weber, Mikhail Yurochkin, Sherif Botros, Vanio Markov
- Abstract要約: 貸付におけるアルゴリズム的公正性は、保護されたグループ間の統計的公平性を監視するためにグループフェアネスの指標に依存する。
このアプローチは、代理によるサブグループ差別に対して脆弱であり、銀行員に法的、評判の高い損害の重大なリスクをもたらす。
われわれはこの問題を、米国における歴史的および残酷な人種差別の背景から、利用可能なトレーニングデータ全てを汚染する動機付けている。
- 参考スコア(独自算出の注目度): 23.820606347327686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness in lending today relies on group fairness metrics for
monitoring statistical parity across protected groups. This approach is
vulnerable to subgroup discrimination by proxy, carrying significant risks of
legal and reputational damage for lenders and blatantly unfair outcomes for
borrowers. Practical challenges arise from the many possible combinations and
subsets of protected groups. We motivate this problem against the backdrop of
historical and residual racism in the United States polluting all available
training data and raising public sensitivity to algorithimic bias. We review
the current regulatory compliance protocols for fairness in lending and discuss
their limitations relative to the contributions state-of-the-art fairness
methods may afford. We propose a solution for addressing subgroup
discrimination, while adhering to existing group fairness requirements, from
recent developments in individual fairness methods and corresponding fair
metric learning algorithms.
- Abstract(参考訳): 今日の貸付におけるアルゴリズム的公正性は、保護されたグループ間の統計的公平性を監視するためのグループフェアネス指標に依存している。
このアプローチは代理業者によるサブグループ差別に対して脆弱であり、貸し手に対する法的・評判的な損害と、借り手に対する不正な不公平な結果という重大なリスクを負っている。
実用的な課題は保護されたグループの多くの組み合わせと部分集合から生じる。
我々は、米国における歴史的および残酷な人種差別の背景から、この問題を動機付け、利用可能なすべてのトレーニングデータを汚染し、アルゴリタミズムバイアスに対する公衆の感受性を高める。
本稿では,貸付における公正性に関する規制コンプライアンスプロトコルを概観し,その限界について述べる。
本稿では,個別のフェアネス法とそれに対応するフェアネス学習アルゴリズムの最近の発展から,既存のグループフェアネス要件を順守しつつ,サブグループ識別に対処するソリューションを提案する。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Robust Fair Clustering: A Novel Fairness Attack and Defense Framework [33.87395800206783]
フェアクラスタリングアルゴリズムに対する新しいブラックボックスフェアネス攻撃を提案する。
我々は、最先端のモデルが我々の攻撃に非常に影響を受けやすいことを発見した。
また,最初のロバストなフェアクラスタリング手法であるConsensus Fair Clustering (CFC)を提案する。
論文 参考訳(メタデータ) (2022-10-04T23:00:20Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。