論文の概要: Achieving Downstream Fairness with Geometric Repair
- arxiv url: http://arxiv.org/abs/2203.07490v1
- Date: Mon, 14 Mar 2022 20:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 16:22:22.049617
- Title: Achieving Downstream Fairness with Geometric Repair
- Title(参考訳): 幾何学的修復による下流フェアネスの達成
- Authors: Kweku Kwegyir-Aggrey, Jessica Dai, John Dickerson, Keegan Hines
- Abstract要約: 上流モデルデベロッパは 公正なモデルを訓練しなければならない しかし 下流モデルユーザーやステークホルダーの 公正な要求に気づいていない
本稿では, 決定しきい値における下流選択に対して公平な分類を得られるように, 回帰器のスコアを後処理することで, この設定に特異的に対処する手法を提案する。
- 参考スコア(独自算出の注目度): 3.976291254896486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Consider a scenario where some upstream model developer must train a fair
model, but is unaware of the fairness requirements of a downstream model user
or stakeholder. In the context of fair classification, we present a technique
that specifically addresses this setting, by post-processing a regressor's
scores such they yield fair classifications for any downstream choice in
decision threshold. To begin, we leverage ideas from optimal transport to show
how this can be achieved for binary protected groups across a broad class of
fairness metrics. Then, we extend our approach to address the setting where a
protected attribute takes on multiple values, by re-recasting our technique as
a convex optimization problem that leverages lexicographic fairness.
- Abstract(参考訳): 上流のモデル開発者が公平なモデルをトレーニングしなければならないが、下流のモデルユーザや利害関係者の公平性要件を知らないシナリオを考えてみよう。
公平な分類の文脈では、レグレッサーのスコアを後処理することで、決定しきい値における下流の選択に対して公平な分類を与えるという、この設定を具体的に扱う手法を提案する。
まず、最適なトランスポートからのアイデアを活用して、幅広いフェアネスメトリクスのクラスにわたるバイナリ保護グループに対して、これを実現する方法を示します。
次に,本手法を語彙的公平性を利用した凸最適化問題として再キャストすることにより,保護属性が複数の値を取り扱う設定に対処すべく,本手法を拡張した。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators [52.17542855760418]
本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
論文 参考訳(メタデータ) (2022-10-05T11:08:04Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Improved Approximation for Fair Correlation Clustering [4.629694186457133]
相関クラスタリングは教師なし機械学習におけるユビキタスパラダイムであり、不公平に対処することが大きな課題である。
そこで本研究では,データポイントが異なる保護グループに属しているフェア相関クラスタリングについて検討する。
本稿は,Ahmadi et al.とAhmadian et alの以前の研究の質保証を著しく一般化し,改善する。
論文 参考訳(メタデータ) (2022-06-09T03:07:57Z) - Group-Aware Threshold Adaptation for Fair Classification [9.496524884855557]
複数のフェアネス制約を克服する新しいポストプロセッシング手法を提案する。
理論的には,同条件下での既存手法よりも近似最適に近い上界を許容する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-11-08T04:36:37Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。