論文の概要: Achieving Downstream Fairness with Geometric Repair
- arxiv url: http://arxiv.org/abs/2203.07490v2
- Date: Tue, 14 Jun 2022 18:41:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:39:13.267776
- Title: Achieving Downstream Fairness with Geometric Repair
- Title(参考訳): 幾何学的修復による下流フェアネスの達成
- Authors: Kweku Kwegyir-Aggrey, Jessica Dai, John Dickerson, Keegan Hines
- Abstract要約: 我々は、'アップストリーム'モデル開発者が、類似しているが独立した'ダウンストリーム'ユーザによって使用される、公正なMLモデルを作成することを任務とする、公正な機械学習(ML)環境について研究する。
この設定は、多くの既存の公正な介入によって守られていない新しい課題を導入します。
保護群間の結果の分布の格差を測る新たな公平性定義である分布パリティを導入する。
- 参考スコア(独自算出の注目度): 3.976291254896486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a fair machine learning (ML) setting where an 'upstream' model
developer is tasked with producing a fair ML model that will be used by several
similar but distinct 'downstream' users. This setting introduces new challenges
that are unaddressed by many existing fairness interventions, echoing existing
critiques that current methods are not broadly applicable across the
diversifying needs of real-world fair ML use cases. To this end, we address the
up/down stream setting by adopting a distributional-based view of fair
classification. Specifically, we introduce a new fairness definition,
distributional parity, that measures disparities in the distribution of
outcomes across protected groups, and present a post-processing method to
minimize this measure using techniques from optimal transport. We show that our
method is able that creates fairer outcomes for all downstream users, across a
variety of fairness definitions, and works at inference time on unlabeled data.
We verify this claim experimentally, through comparison to several similar
methods and across four benchmark tasks. Ultimately we argue that fairer
classification outcomes can be produced through the development of
setting-specific interventions.
- Abstract(参考訳): そこでは,「上流」モデル開発者が,類似しているが異なる「下流」ユーザによって使用される公正なmlモデルを作成することを課題とする,公正な機械学習(ml)設定について検討する。
この設定では、既存の公正な介入によって対処されない新しい課題が導入され、現在の方法が現実世界の公正なmlユースケースの多様なニーズに広く適用できないという既存の批判と一致する。
この目的のために、公平な分類の分布に基づくビューを採用することで、アップ/ダウンストリーム設定に対処する。
具体的には,保護グループ間の成果分布のばらつきを測定する新しい公平性定義である分布パリティを導入し,最適な輸送手法を用いてこの尺度を最小化するための後処理法を提案する。
提案手法は, 様々なフェアネス定義を用いて, 下流ユーザに対してより公平な結果を生成することができ, ラベルのないデータに対する推測時間で作業可能であることを示す。
いくつかの類似した手法と4つのベンチマークタスクを比較し、この主張を実験的に検証する。
究極的には、より公平な分類結果は、設定固有の介入の開発によって得られると論じる。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators [52.17542855760418]
本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
論文 参考訳(メタデータ) (2022-10-05T11:08:04Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Improved Approximation for Fair Correlation Clustering [4.629694186457133]
相関クラスタリングは教師なし機械学習におけるユビキタスパラダイムであり、不公平に対処することが大きな課題である。
そこで本研究では,データポイントが異なる保護グループに属しているフェア相関クラスタリングについて検討する。
本稿は,Ahmadi et al.とAhmadian et alの以前の研究の質保証を著しく一般化し,改善する。
論文 参考訳(メタデータ) (2022-06-09T03:07:57Z) - Group-Aware Threshold Adaptation for Fair Classification [9.496524884855557]
複数のフェアネス制約を克服する新しいポストプロセッシング手法を提案する。
理論的には,同条件下での既存手法よりも近似最適に近い上界を許容する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-11-08T04:36:37Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。