論文の概要: Post-hoc Bias Scoring Is Optimal For Fair Classification
- arxiv url: http://arxiv.org/abs/2310.05725v3
- Date: Fri, 15 Mar 2024 15:09:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 02:52:40.550478
- Title: Post-hoc Bias Scoring Is Optimal For Fair Classification
- Title(参考訳): ホック後のバイアススコーリングは公平な分類に最適
- Authors: Wenlong Chen, Yegor Klochkov, Yang Liu,
- Abstract要約: バイアススコアと呼ばれる新しいインスタンスレベルのバイアス尺度を導入し、修正規則は有限量のバイアススコアの上に単純な線形ルールである。
DPとEOpの制約の場合、修正規則は1つのバイアススコアをしきい値にし、EOの制約の場合、線形修正規則を2つのパラメータに適合させることが要求される。
- 参考スコア(独自算出の注目度): 12.897626117694317
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We consider a binary classification problem under group fairness constraints, which can be one of Demographic Parity (DP), Equalized Opportunity (EOp), or Equalized Odds (EO). We propose an explicit characterization of Bayes optimal classifier under the fairness constraints, which turns out to be a simple modification rule of the unconstrained classifier. Namely, we introduce a novel instance-level measure of bias, which we call bias score, and the modification rule is a simple linear rule on top of the finite amount of bias scores.Based on this characterization, we develop a post-hoc approach that allows us to adapt to fairness constraints while maintaining high accuracy. In the case of DP and EOp constraints, the modification rule is thresholding a single bias score, while in the case of EO constraints we are required to fit a linear modification rule with 2 parameters. The method can also be applied for composite group-fairness criteria, such as ones involving several sensitive attributes.
- Abstract(参考訳): グループフェアネス制約の下で二項分類問題を考えると、これは復号法パリティ(DP)、等化オポチュニティ(EOp)、等化オッド(EO)のいずれかである。
フェアネス制約の下でベイズ最適分類器の明示的な特徴付けを提案するが、これは制約のない分類器の単純な修正規則であることが判明した。
すなわち、バイアススコアと呼ばれる新しいインスタンスレベルのバイアス尺度を導入し、修正規則は、有限量のバイアススコアの上に単純な線形ルールであり、この特徴に基づいて、高い精度を維持しながら公平性制約に適応できるポストホックなアプローチを開発する。
DPとEOpの制約の場合、修正規則は1つのバイアススコアをしきい値にし、EOの制約の場合、線形修正規則を2つのパラメータに適合させることが要求される。
この方法は、いくつかの感度特性を含むような複合グループフェアネス基準にも適用することができる。
関連論文リスト
- Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Interpretable and Fair Boolean Rule Sets via Column Generation [18.08486863429421]
整数プログラムは、規則単純性のために最適に分類精度を交換するように定式化される。
公平性の設定を考慮し、分類パリティの2つの異なる尺度に関する明示的な制約を含むように定式化を拡張した。
他の公正かつ解釈可能な分類器と比較して、我々の手法は、公正性のより厳密な概念に適合する規則セットを精度の低いトレードオフで見つけることができる。
論文 参考訳(メタデータ) (2021-11-16T13:40:28Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Evaluating Debiasing Techniques for Intersectional Biases [53.41549919978481]
バイアスはNLPモデルに広く浸透し、自動デバイアス技術の開発を動機付けている。
この論文では、真に公正なモデルは、単一の属性だけでなく、交叉群を構成するゲーリーマンダリング群を考慮すべきである、と論じる。
論文 参考訳(メタデータ) (2021-09-21T22:01:28Z) - Fair Decision Rules for Binary Classification [0.0]
直交正規形式(DNF)におけるブール則集合構築の問題を考える。
この問題を2つの異なる分類パリティ尺度に対する明示的な制約で分類精度を最大化する整数プログラムとして定式化する。
他の公正かつ解釈可能な分類器と比較して、我々の手法は、公正性のより厳密な概念に適合する規則セットを精度の低いトレードオフで見つけることができる。
論文 参考訳(メタデータ) (2021-07-03T02:32:17Z) - Rule Generation for Classification: Scalability, Interpretability, and Fairness [0.0]
制約付き分類のためのルールベースの新しい最適化手法を提案する。
ルールにコスト係数を割り当て、追加制約を導入することにより、解釈可能性と公正性に対処する。
提案手法は,一方の局所的解釈可能性と他方の正当性,他方の精度との間に良好な妥協関係を示す。
論文 参考訳(メタデータ) (2021-04-21T20:31:28Z) - GroupifyVAE: from Group-based Definition to VAE-based Unsupervised
Representation Disentanglement [91.9003001845855]
他の誘導バイアスを導入しないと、VAEベースの非監視的非絡み合いは実現できない。
グループ理論に基づく定義から導かれる制約を非確率的帰納的バイアスとして活用し,vaeに基づく教師なし不連続に対処する。
提案手法の有効性を検証するために,5つのデータセット上で,vaeベースモデルが最も目立つ1800モデルをトレーニングした。
論文 参考訳(メタデータ) (2021-02-20T09:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。