論文の概要: Bayes-Optimal Fair Classification with Linear Disparity Constraints via Pre-, In-, and Post-processing
- arxiv url: http://arxiv.org/abs/2402.02817v3
- Date: Wed, 27 Aug 2025 15:29:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.283401
- Title: Bayes-Optimal Fair Classification with Linear Disparity Constraints via Pre-, In-, and Post-processing
- Title(参考訳): 前処理, 内処理, 後処理による線形距離制約を考慮したベイズ最適フェア分類
- Authors: Xianli Zeng, Kevin Jiang, Guang Cheng, Edgar Dobriban,
- Abstract要約: 与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
- 参考スコア(独自算出の注目度): 21.522784751525222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms may have disparate impacts on protected groups. To address this, we develop methods for Bayes-optimal fair classification, aiming to minimize classification error subject to given group fairness constraints. We introduce the notion of \emph{linear disparity measures}, which are linear functions of a probabilistic classifier; and \emph{bilinear disparity measures}, which are also linear in the group-wise regression functions. We show that several popular disparity measures -- the deviations from demographic parity, equality of opportunity, and predictive equality -- are bilinear. We find the form of Bayes-optimal fair classifiers under a single linear disparity measure, by uncovering a connection with the Neyman-Pearson lemma. For bilinear disparity measures, we are able to find the explicit form of Bayes-optimal fair classifiers as group-wise thresholding rules with explicitly characterized thresholds. We develop similar algorithms for when protected attribute cannot be used at the prediction phase. Moreover, we obtain analogous theoretical characterizations of optimal classifiers for a multi-class protected attribute and for equalized odds. Leveraging our theoretical results, we design methods that learn fair Bayes-optimal classifiers under bilinear disparity constraints. Our methods cover three popular approaches to fairness-aware classification, via pre-processing (Fair Up- and Down-Sampling), in-processing (Fair cost-sensitive Classification) and post-processing (a Fair Plug-In Rule). Our methods control disparity directly while achieving near-optimal fairness-accuracy tradeoffs. We show empirically that our methods have state-of-the-art performance compared to existing algorithms. In particular, our pre-processing method can a reach higher accuracy than prior pre-processing methods at low disparity levels.
- Abstract(参考訳): 機械学習アルゴリズムは、保護されたグループに異なる影響を与える可能性がある。
そこで我々は,与えられた群フェアネス制約による分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
確率的分類器の線型関数である \emph{linear Disparity measures} と、群次回帰関数においても線型である \emph{bilinear Disparity measures} の概念を導入する。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
ベイズ最適公正分類器の形式は、ネマン・ピアソン補題との接続を明らかにすることによって、単一の線形不均等測度の下で得られる。
双線型不均等度測定では、ベイズ最適公正分類器の明示的な形式を、明確に特徴付けられた閾値を持つ群ワイドしきい値規則として見つけることができる。
予測フェーズで保護属性を使用できない場合の類似アルゴリズムを開発する。
さらに,多クラス保護属性と等化奇数に対する最適分類器の類似理論的特徴を求める。
理論的結果を活用することで、両線形差分制約の下でベイズ最適分類器を公平に学習する手法を設計する。
提案手法は,事前処理(Fair Up- and Down-Sampling),インプロセッシング(Fair Cost-sensitive Classification),ポストプロセッシング(Fair Plug-In Rule)という3種類のフェアネス対応分類手法を網羅する。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
提案手法は,既存のアルゴリズムと比較して,最先端の性能を実証的に示す。
特に, この前処理手法は, 差の低い前処理方法よりも精度が高い。
関連論文リスト
- BAPE: Learning an Explicit Bayes Classifier for Long-tailed Visual Recognition [78.70453964041718]
現在のディープラーニングアルゴリズムは通常、後部確率を簡易に推定することで最適分類器を解く。
この単純な手法は、厳密にバランスのとれた学術ベンチマークデータセットに有効であることが証明されている。
しかし、これは現実世界の長い尾のデータ分布には適用できない。
本稿では,データ分布のより正確な理論的推定を行う新しい手法(BAPE)を提案する。
論文 参考訳(メタデータ) (2025-06-29T15:12:50Z) - Accuracy vs. Accuracy: Computational Tradeoffs Between Classification Rates and Utility [6.99674326582747]
トレーニングデータがよりリッチなラベルを含むような環境で、フェアネスの基礎と実用性と効率性との相互作用を再考する。
本研究では,標準的な教師あり学習よりもエビデンスに基づく公平性の概念をより高めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-22T10:26:30Z) - Bayes-Optimal Fair Classification with Multiple Sensitive Features [24.42403136889636]
一般の近似公正度測定において,複数の感度特徴に対してベイズ最適フェア分類器を特徴付ける。
デモグラフィックパリティを含む既存の群フェアネス概念に対するこれらの近似測度は、特定の群の選択率の線形変換であることを示す。
我々のフレームワークは属性認識と属性盲の設定の両方に適用でき、Equalized Oddsのような複合フェアネスの概念に対応できる。
論文 参考訳(メタデータ) (2025-05-01T16:12:12Z) - Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Repairing Regressors for Fair Binary Classification at Any Decision
Threshold [8.322348511450366]
同時にすべてのしきい値で公正なパフォーマンスを向上できることを示します。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
我々の主な成果は、最適輸送に基づく新しい後処理アルゴリズムを提案し、分散パリティを確実に最大化することである。
論文 参考訳(メタデータ) (2022-03-14T20:53:35Z) - Group-Aware Threshold Adaptation for Fair Classification [9.496524884855557]
複数のフェアネス制約を克服する新しいポストプロセッシング手法を提案する。
理論的には,同条件下での既存手法よりも近似最適に近い上界を許容する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-11-08T04:36:37Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Fair Classification via Unconstrained Optimization [0.0]
我々はベイズ最適公正学習規則がベイズ回帰器に対するグループワイドしきい値の規則のままであることを示す。
提案アルゴリズムは,任意のブラックボックス機械学習モデルに適用可能である。
論文 参考訳(メタデータ) (2020-05-21T11:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。