論文の概要: On the Maximal Local Disparity of Fairness-Aware Classifiers
- arxiv url: http://arxiv.org/abs/2406.03255v1
- Date: Wed, 5 Jun 2024 13:35:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 18:10:52.632141
- Title: On the Maximal Local Disparity of Fairness-Aware Classifiers
- Title(参考訳): フェアネス・アウェア分類器の最大局所差について
- Authors: Jinqiu Jin, Haoxuan Li, Fuli Feng,
- Abstract要約: 種々の予測近傍(MCDP)に沿った最大累積比差という新しい公正度尺度を提案する。
MCDPを精度よく効率的に計算するために,推定誤差の少ない計算複雑性を大幅に低減する,証明可能な精度と近似計算アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 35.98015221840018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness has become a crucial aspect in the development of trustworthy machine learning algorithms. Current fairness metrics to measure the violation of demographic parity have the following drawbacks: (i) the average difference of model predictions on two groups cannot reflect their distribution disparity, and (ii) the overall calculation along all possible predictions conceals the extreme local disparity at or around certain predictions. In this work, we propose a novel fairness metric called Maximal Cumulative ratio Disparity along varying Predictions' neighborhood (MCDP), for measuring the maximal local disparity of the fairness-aware classifiers. To accurately and efficiently calculate the MCDP, we develop a provably exact and an approximate calculation algorithm that greatly reduces the computational complexity with low estimation error. We further propose a bi-level optimization algorithm using a differentiable approximation of the MCDP for improving the algorithmic fairness. Extensive experiments on both tabular and image datasets validate that our fair training algorithm can achieve superior fairness-accuracy trade-offs.
- Abstract(参考訳): 公正さは、信頼できる機械学習アルゴリズムの開発において重要な側面となっている。
人口格差の違反を測定するための現在の公正度指標には、以下の欠点がある。
一 二つの群におけるモデル予測の平均差は、その分布格差を反映することができず、
(2) 予測可能な全ての予測の全体計算は、特定の予測の周辺において、極端に局所的な格差を隠蔽する。
そこで本研究では,各予測地区(MCDP)に沿った最大累積比差(Maximal Cumulative ratio Disparity)と呼ばれる新しいフェアネス尺度を提案し,フェアネス認識分類器の最大局所差を測定する。
MCDPを精度よく効率的に計算するために,推定誤差の少ない計算複雑性を大幅に低減する,証明可能な精度と近似計算アルゴリズムを開発した。
さらに,アルゴリズムの公平性を改善するために,MCDPの微分可能近似を用いた二段階最適化アルゴリズムを提案する。
表と画像の両方のデータセットに対する大規模な実験により、我々の公正トレーニングアルゴリズムがより優れた公正さと精度のトレードオフを達成できることが検証された。
関連論文リスト
- Does Machine Bring in Extra Bias in Learning? Approximating Fairness in Models Promptly [2.002741592555996]
機械学習モデルの識別レベルを評価するための既存の技術には、一般的に使用されるグループと個別の公正度尺度が含まれる。
本稿では,集合間の距離に基づく「HFM(Harmonic Fairness measure)」を提案する。
実験結果から,提案した公正度尺度 HFM が有効であり,提案した ApproxDist が有効かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2024-05-15T11:07:40Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Metrizing Fairness [5.323439381187456]
本研究では,2つの集団集団の個人に有意な影響を及ぼす教師付き学習問題について検討した。
我々は、統計パリティ(SP)のような群フェアネス基準に関して公正な予測子を求める。
本稿では,厳密なSP制約が保証される条件を特定し,予測精度を向上させる。
論文 参考訳(メタデータ) (2022-05-30T12:28:10Z) - Efficient and Differentiable Conformal Prediction with General Function
Classes [96.74055810115456]
本稿では,複数の学習可能なパラメータに対する共形予測の一般化を提案する。
本研究は, クラス内において, ほぼ有効な人口被覆率, ほぼ最適効率を実現していることを示す。
実験の結果,提案アルゴリズムは有効な予測セットを学習し,効率を著しく向上できることがわかった。
論文 参考訳(メタデータ) (2022-02-22T18:37:23Z) - Learning Optimal Fair Classification Trees: Trade-offs Between
Interpretability, Fairness, and Accuracy [7.215903549622416]
最適分類木を学習するための混合整数最適化フレームワークを提案する。
我々は、一般的なデータセットの公平な分類のための最先端アプローチに対して、我々の手法をベンチマークする。
我々の手法は、ほぼ完全に一致した決定を一貫して見つけ出すが、他の手法は滅多にない。
論文 参考訳(メタデータ) (2022-01-24T19:47:10Z) - A Unified Framework for Multi-distribution Density Ratio Estimation [101.67420298343512]
バイナリ密度比推定(DRE)は多くの最先端の機械学習アルゴリズムの基礎を提供する。
ブレグマン最小化の発散の観点から一般的な枠組みを開発する。
我々のフレームワークはバイナリDREでそれらのフレームワークを厳格に一般化する手法に導かれることを示す。
論文 参考訳(メタデータ) (2021-12-07T01:23:20Z) - The Sharpe predictor for fairness in machine learning [0.0]
機械学習の応用においては、不公平な予測が少数派に対して差別されることがある。
フェア機械学習(FML)の既存のアプローチは、MLモデルの最適化において、フェアネスを制約またはペナル化用語として扱う。
本稿では,Multi-Objective Optimization(SMOO)に基づくFMLの新しいパラダイムを提案する。
FMLのシャープ予測器は、予測リスク(不公平)の単位当たりの最も高い予測リターン(精度)を提供する。
論文 参考訳(メタデータ) (2021-08-13T22:22:34Z) - Understanding and Mitigating Accuracy Disparity in Regression [34.63275666745179]
回帰における精度格差問題について検討する。
そこで, 誤差分解定理を提案し, 限界ラベル分布間の距離に精度格差を分解する。
次に,この差分を減少させるアルゴリズムを提案し,提案した目的関数のゲーム理論的最適度を解析する。
論文 参考訳(メタデータ) (2021-02-24T01:24:50Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。