論文の概要: Black Loans Matter: Distributionally Robust Fairness for Fighting
Subgroup Discrimination
- arxiv url: http://arxiv.org/abs/2012.01193v1
- Date: Fri, 27 Nov 2020 21:04:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-22 20:21:36.987971
- Title: Black Loans Matter: Distributionally Robust Fairness for Fighting
Subgroup Discrimination
- Title(参考訳): ブラックローン問題:サブグループ差別と戦うための分配的ロバストな公平性
- Authors: Mark Weber, Mikhail Yurochkin, Sherif Botros, Vanio Markov
- Abstract要約: 貸付におけるアルゴリズム的公正性は、保護されたグループ間の統計的公平性を監視するためにグループフェアネスの指標に依存する。
このアプローチは、代理によるサブグループ差別に対して脆弱であり、銀行員に法的、評判の高い損害の重大なリスクをもたらす。
われわれはこの問題を、米国における歴史的および残酷な人種差別の背景から、利用可能なトレーニングデータ全てを汚染する動機付けている。
- 参考スコア(独自算出の注目度): 23.820606347327686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness in lending today relies on group fairness metrics for
monitoring statistical parity across protected groups. This approach is
vulnerable to subgroup discrimination by proxy, carrying significant risks of
legal and reputational damage for lenders and blatantly unfair outcomes for
borrowers. Practical challenges arise from the many possible combinations and
subsets of protected groups. We motivate this problem against the backdrop of
historical and residual racism in the United States polluting all available
training data and raising public sensitivity to algorithimic bias. We review
the current regulatory compliance protocols for fairness in lending and discuss
their limitations relative to the contributions state-of-the-art fairness
methods may afford. We propose a solution for addressing subgroup
discrimination, while adhering to existing group fairness requirements, from
recent developments in individual fairness methods and corresponding fair
metric learning algorithms.
- Abstract(参考訳): 今日の貸付におけるアルゴリズム的公正性は、保護されたグループ間の統計的公平性を監視するためのグループフェアネス指標に依存している。
このアプローチは代理業者によるサブグループ差別に対して脆弱であり、貸し手に対する法的・評判的な損害と、借り手に対する不正な不公平な結果という重大なリスクを負っている。
実用的な課題は保護されたグループの多くの組み合わせと部分集合から生じる。
我々は、米国における歴史的および残酷な人種差別の背景から、この問題を動機付け、利用可能なすべてのトレーニングデータを汚染し、アルゴリタミズムバイアスに対する公衆の感受性を高める。
本稿では,貸付における公正性に関する規制コンプライアンスプロトコルを概観し,その限界について述べる。
本稿では,個別のフェアネス法とそれに対応するフェアネス学習アルゴリズムの最近の発展から,既存のグループフェアネス要件を順守しつつ,サブグループ識別に対処するソリューションを提案する。
関連論文リスト
- Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - Robust Fair Clustering: A Novel Fairness Attack and Defense Framework [33.87395800206783]
フェアクラスタリングアルゴリズムに対する新しいブラックボックスフェアネス攻撃を提案する。
我々は、最先端のモデルが我々の攻撃に非常に影響を受けやすいことを発見した。
また,最初のロバストなフェアクラスタリング手法であるConsensus Fair Clustering (CFC)を提案する。
論文 参考訳(メタデータ) (2022-10-04T23:00:20Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。