論文の概要: Post-hoc Bias Scoring Is Optimal For Fair Classification
- arxiv url: http://arxiv.org/abs/2310.05725v1
- Date: Mon, 9 Oct 2023 13:54:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 04:39:53.010976
- Title: Post-hoc Bias Scoring Is Optimal For Fair Classification
- Title(参考訳): ホック後のバイアススコーリングは公平な分類に最適
- Authors: Wenlong Chen, Yegor Klochkov, Yang Liu
- Abstract要約: 我々は、グループフェアネス制約の下で二項分類問題を考える。これは、デモグラフィックパリティ(DP)、等化オポチュニティ(EOp)、等化オッド(EO)のいずれかである。
バイアススコアと呼ばれる新しいインスタンスレベルのバイアス尺度を導入し、修正規則は有限量のバイアススコアの上に単純な線形ルールである。
この特徴から,我々は,高精度を維持しながら公正性制約に適応できるポストホックアプローチを開発した。
- 参考スコア(独自算出の注目度): 14.495639222358504
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We consider a binary classification problem under group fairness constraints,
which can be one of Demographic Parity (DP), Equalized Opportunity (EOp), or
Equalized Odds (EO). We propose an explicit characterization of Bayes optimal
classifier under the fairness constraints, which turns out to be a simple
modification rule of the unconstrained classifier. Namely, we introduce a novel
instance-level measure of bias, which we call bias score, and the modification
rule is a simple linear rule on top of the finite amount of bias scores. Based
on this characterization, we develop a post-hoc approach that allows us to
adapt to fairness constraints while maintaining high accuracy. In the case of
DP and EOp constraints, the modification rule is thresholding a single bias
score, while in the case of EO constraints we are required to fit a linear
modification rule with 2 parameters. The method can also be applied for
composite group-fairness criteria, such as ones involving several sensitive
attributes. We achieve competitive or better performance compared to both
in-processing and post-processing methods across three datasets: Adult, COMPAS,
and CelebA. Unlike most post-processing methods, we do not require access to
sensitive attributes during the inference time.
- Abstract(参考訳): グループフェアネス制約の下での二分分類問題を考える。これは人口格差(dp)、等化機会(eop)、等化オッズ(eo)の1つである。
フェアネス制約下でのベイズ最適分類器の明示的な特徴付けを提案し, 制約のない分類器の簡単な修正規則であることが判明した。
具体的には, バイアススコアと呼ばれる新しいインスタンスレベルのバイアス尺度を導入し, 修正規則は, バイアススコアの有限量に加えて, 単純な線形規則である。
この特徴に基づいて,高い精度を維持しつつ公平性制約に適応できるポストホックな手法を開発した。
DPとEOpの制約の場合、修正規則は1つのバイアススコアをしきい値にし、EOの制約の場合、線形修正規則を2つのパラメータに適合させることが要求される。
この方法は、いくつかの感度特性を含むような複合グループフェアネス基準にも適用することができる。
我々は、アダルト、Compab、CelebAの3つのデータセットの内処理と後処理の両方と比較して、競争力やパフォーマンスが向上する。
ほとんどの後処理メソッドとは異なり、推論時間中に機密属性にアクセスする必要はない。
関連論文リスト
- Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Interpretable and Fair Boolean Rule Sets via Column Generation [18.08486863429421]
整数プログラムは、規則単純性のために最適に分類精度を交換するように定式化される。
公平性の設定を考慮し、分類パリティの2つの異なる尺度に関する明示的な制約を含むように定式化を拡張した。
他の公正かつ解釈可能な分類器と比較して、我々の手法は、公正性のより厳密な概念に適合する規則セットを精度の低いトレードオフで見つけることができる。
論文 参考訳(メタデータ) (2021-11-16T13:40:28Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Evaluating Debiasing Techniques for Intersectional Biases [53.41549919978481]
バイアスはNLPモデルに広く浸透し、自動デバイアス技術の開発を動機付けている。
この論文では、真に公正なモデルは、単一の属性だけでなく、交叉群を構成するゲーリーマンダリング群を考慮すべきである、と論じる。
論文 参考訳(メタデータ) (2021-09-21T22:01:28Z) - Fair Decision Rules for Binary Classification [0.0]
直交正規形式(DNF)におけるブール則集合構築の問題を考える。
この問題を2つの異なる分類パリティ尺度に対する明示的な制約で分類精度を最大化する整数プログラムとして定式化する。
他の公正かつ解釈可能な分類器と比較して、我々の手法は、公正性のより厳密な概念に適合する規則セットを精度の低いトレードオフで見つけることができる。
論文 参考訳(メタデータ) (2021-07-03T02:32:17Z) - Rule Generation for Classification: Scalability, Interpretability, and Fairness [0.0]
制約付き分類のためのルールベースの新しい最適化手法を提案する。
ルールにコスト係数を割り当て、追加制約を導入することにより、解釈可能性と公正性に対処する。
提案手法は,一方の局所的解釈可能性と他方の正当性,他方の精度との間に良好な妥協関係を示す。
論文 参考訳(メタデータ) (2021-04-21T20:31:28Z) - GroupifyVAE: from Group-based Definition to VAE-based Unsupervised
Representation Disentanglement [91.9003001845855]
他の誘導バイアスを導入しないと、VAEベースの非監視的非絡み合いは実現できない。
グループ理論に基づく定義から導かれる制約を非確率的帰納的バイアスとして活用し,vaeに基づく教師なし不連続に対処する。
提案手法の有効性を検証するために,5つのデータセット上で,vaeベースモデルが最も目立つ1800モデルをトレーニングした。
論文 参考訳(メタデータ) (2021-02-20T09:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。