論文の概要: Geometric Repair for Fair Classification at Any Decision Threshold
- arxiv url: http://arxiv.org/abs/2203.07490v3
- Date: Wed, 29 Mar 2023 20:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 18:39:11.816022
- Title: Geometric Repair for Fair Classification at Any Decision Threshold
- Title(参考訳): 決定しきい値における公平な分類のための幾何学的修復
- Authors: Kweku Kwegyir-Aggrey, Jessica Dai, A. Feder Cooper, John Dickerson,
Keegan Hines
- Abstract要約: その結果,各グループのスコア分布間の統計的距離を減少させることで,各閾値間の公正な性能を同時に向上させることができることがわかった。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
- 参考スコア(独自算出の注目度): 5.459797813771498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of post-processing a supervised machine-learned
regressor to maximize fair binary classification at all decision thresholds.
Specifically, we show that by decreasing the statistical distance between each
group's score distributions, we can increase fair performance across all
thresholds at once, and that we can do so without a significant decrease in
accuracy. To this end, we introduce a formal measure of distributional parity,
which captures the degree of similarity in the distributions of classifications
for different protected groups. In contrast to prior work, which has been
limited to studies of demographic parity across all thresholds, our measure
applies to a large class of fairness metrics. Our main result is to put forward
a novel post-processing algorithm based on optimal transport, which provably
maximizes distributional parity. We support this result with experiments on
several fairness benchmarks.
- Abstract(参考訳): 我々は,教師付き機械学習型回帰器の処理後問題について検討し,任意の判定しきい値における公平な二項分類を最大化する。
具体的には,各グループのスコア分布間の統計的距離を減少させることで,すべてのしきい値に対する公平なパフォーマンスを一度に向上させ,精度を著しく低下させることなく達成できることを示す。
この目的のために,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
従来の研究とは対照的に、全ての閾値における人口統計学的均等性の研究に限られており、我々の測定は大規模な公正度尺度に適用されている。
我々の主な成果は、分布パリティを確実に最大化する最適輸送に基づく新しい後処理アルゴリズムを提案することである。
いくつかのフェアネスベンチマークの実験でこの結果を支持する。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators [52.17542855760418]
本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
論文 参考訳(メタデータ) (2022-10-05T11:08:04Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Improved Approximation for Fair Correlation Clustering [4.629694186457133]
相関クラスタリングは教師なし機械学習におけるユビキタスパラダイムであり、不公平に対処することが大きな課題である。
そこで本研究では,データポイントが異なる保護グループに属しているフェア相関クラスタリングについて検討する。
本稿は,Ahmadi et al.とAhmadian et alの以前の研究の質保証を著しく一般化し,改善する。
論文 参考訳(メタデータ) (2022-06-09T03:07:57Z) - Group-Aware Threshold Adaptation for Fair Classification [9.496524884855557]
複数のフェアネス制約を克服する新しいポストプロセッシング手法を提案する。
理論的には,同条件下での既存手法よりも近似最適に近い上界を許容する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-11-08T04:36:37Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。