論文の概要: Rawlsian Fair Adaptation of Deep Learning Classifiers
- arxiv url: http://arxiv.org/abs/2105.14890v1
- Date: Mon, 31 May 2021 11:31:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-02 00:19:32.888992
- Title: Rawlsian Fair Adaptation of Deep Learning Classifiers
- Title(参考訳): ディープラーニング分類器のRawlsian Fair Adaptation
- Authors: Kulin Shah, Pooja Gupta, Amit Deshpande, Chiranjib Bhattacharyya
- Abstract要約: 分類におけるグループフェアネスは、人種や性別など、様々な敏感なサブ人口にまたがる予測ユーティリティの平等を目標としている。
本稿では、Rawls分類器が、最悪の低感度サブ集団におけるエラー率を最小限に抑えることを示す。
実験結果から, フェアネスのトレーニングを行なわずとも, 最先端のグループフェアアルゴリズムよりも有意な改善が得られた。
- 参考スコア(独自算出の注目度): 18.150327860396786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Group-fairness in classification aims for equality of a predictive utility
across different sensitive sub-populations, e.g., race or gender. Equality or
near-equality constraints in group-fairness often worsen not only the aggregate
utility but also the utility for the least advantaged sub-population. In this
paper, we apply the principles of Pareto-efficiency and least-difference to the
utility being accuracy, as an illustrative example, and arrive at the Rawls
classifier that minimizes the error rate on the worst-off sensitive
sub-population. Our mathematical characterization shows that the Rawls
classifier uniformly applies a threshold to an ideal score of features, in the
spirit of fair equality of opportunity. In practice, such a score or a feature
representation is often computed by a black-box model that has been useful but
unfair. Our second contribution is practical Rawlsian fair adaptation of any
given black-box deep learning model, without changing the score or feature
representation it computes. Given any score function or feature representation
and only its second-order statistics on the sensitive sub-populations, we seek
a threshold classifier on the given score or a linear threshold classifier on
the given feature representation that achieves the Rawls error rate restricted
to this hypothesis class. Our technical contribution is to formulate the above
problems using ambiguous chance constraints, and to provide efficient
algorithms for Rawlsian fair adaptation, along with provable upper bounds on
the Rawls error rate. Our empirical results show significant improvement over
state-of-the-art group-fair algorithms, even without retraining for fairness.
- Abstract(参考訳): 分類におけるグループフェアネスは、人種や性別など、様々な敏感なサブ人口にまたがる予測ユーティリティの平等を目標としている。
グループフェアネスにおける平等あるいはほぼ平等な制約は、集合的ユーティリティだけでなく、最も有利なサブ人口の効用も悪化させる。
本稿では, 実用性に対するパレート効率と最小差の原理を実証的な例として適用し, 最悪の部分集団における誤り率を最小限に抑えるRawls分類器に到達する。
我々の数学的特徴は、Rawls分類器が、機会の公平な平等の精神において、理想的な特徴のスコアに一様にしきい値を適用することを示している。
実際には、そのようなスコアや特徴表現はしばしば有用だが不公平なブラックボックスモデルによって計算される。
第2の貢献は、計算したスコアや特徴表現を変更することなく、任意のブラックボックス深層学習モデルの実用的Rawlsianフェア適応である。
任意のスコア関数や特徴表現と、その感度なサブポピュレーションに関する2次統計のみを考慮し、この仮説クラスに制限されたRawls誤差率を達成する特徴表現上のしきい値分類器または線形しきい値分類器を求める。
我々の技術的貢献は、上記の問題を曖昧な確率制約を用いて定式化し、Rawls の公正適応のための効率的なアルゴリズムと、Rawls の誤り率の証明可能な上限を提供することである。
実験の結果,公平性を再訓練することなく,最先端のgroup-fairアルゴリズムに対して有意な改善が得られた。
関連論文リスト
- Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Fairness-Aware Naive Bayes Classifier for Data with Multiple Sensitive
Features [0.0]
2-naive-Bayes (2NB) をN-naive-Bayes (NNB) に一般化し、データ中の2つのセンシティブなグループを仮定することの単純化を回避する。
本稿では,複数の感度特徴を持つデータへの適用について検討し,差分フェアネスを強制する新しい制約・後処理ルーチンを提案する。
論文 参考訳(メタデータ) (2022-02-23T13:32:21Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Fair Classification via Unconstrained Optimization [0.0]
我々はベイズ最適公正学習規則がベイズ回帰器に対するグループワイドしきい値の規則のままであることを示す。
提案アルゴリズムは,任意のブラックボックス機械学習モデルに適用可能である。
論文 参考訳(メタデータ) (2020-05-21T11:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。