論文の概要: Fix Representation (Optimally) Before Fairness: Finite-Sample Shrinkage Population Correction and the True Price of Fairness Under Subpopulation Shift
- arxiv url: http://arxiv.org/abs/2602.05707v1
- Date: Thu, 05 Feb 2026 14:32:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.973912
- Title: Fix Representation (Optimally) Before Fairness: Finite-Sample Shrinkage Population Correction and the True Price of Fairness Under Subpopulation Shift
- Title(参考訳): フェアネス前の固定表現(最適):サブポピュレーションシフト下における有限サンプル収縮補正とフェアネスの真価
- Authors: Amir Asiaee, Kaveh Aryan,
- Abstract要約: 機械学習の実践者は、予測精度とグループフェアネスの制約の間の緊張をよく観察する。
いずれの現象も、サブグループ比を誤って表現する訓練データのアーティファクトであることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning practitioners frequently observe tension between predictive accuracy and group fairness constraints -- yet sometimes fairness interventions appear to improve accuracy. We show that both phenomena can be artifacts of training data that misrepresents subgroup proportions. Under subpopulation shift (stable within-group distributions, shifted group proportions), we establish: (i) full importance-weighted correction is asymptotically unbiased but finite-sample suboptimal; (ii) the optimal finite-sample correction is a shrinkage reweighting that interpolates between target and training mixtures; (iii) apparent "fairness helps accuracy" can arise from comparing fairness methods to an improperly-weighted baseline. We provide an actionable evaluation protocol: fix representation (optimally) before fairness -- compare fairness interventions against a shrinkage-corrected baseline to isolate the true, irreducible price of fairness. Experiments on synthetic and real-world benchmarks (Adult, COMPAS) validate our theoretical predictions and demonstrate that this protocol eliminates spurious tradeoffs, revealing the genuine fairness-utility frontier.
- Abstract(参考訳): 機械学習の実践者は、予測精度とグループフェアネスの制約の間の緊張をしばしば観察する。
いずれの現象も、サブグループ比を誤って表現する訓練データのアーティファクトであることを示す。
サブポピュレーションシフト(安定なグループ内分布、シフトしたグループ比)の下で、我々は次のように確立する。
(i)完全重要重み付け補正は、漸近的に偏りがないが有限サンプル準最適である。
(ii) 最適有限サンプル補正は、目標と訓練混合物を補間する縮小重み付けである。
三 公正度を不適切に重み付けした基準線と比較することにより、明らかな「公正度が正確性を助ける」が生じることがある。
フェアネスの前に表現を(最適に)修正する - 縮小補正されたベースラインに対する公正な介入を比較して、真で既約なフェアネスの価格を分離する。
合成および実世界のベンチマーク(Adult, COMPAS)の実験は、我々の理論予測を検証し、このプロトコルが突発的なトレードオフを排除し、真の公正ユーティリティフロンティアを明らかにすることを実証する。
関連論文リスト
- Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Consistent End-to-End Estimation for Counterfactual Fairness [56.9060492313073]
本稿では, 対実フェアネスの予測を行うための新しい対実フェアネス予測器を提案する。
我々は,本手法が対実公正性の概念を確実にするのに有効であることを理論的に保証する。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Understanding Fairness Surrogate Functions in Algorithmic Fairness [21.555040357521907]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - Fairness under Covariate Shift: Improving Fairness-Accuracy tradeoff
with few Unlabeled Test Samples [21.144077993862652]
我々は、ラベル付きトレーニングセットとともに、ラベル付きテストサンプルの小さなセットのみが利用可能である教師なしのシステムで運用する。
我々は、損失定式化による最適化が、最先端のベースラインよりも優れていることを実験的に検証した。
提案手法は, それらの性能を著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-10-11T14:39:51Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - RobustFair: Adversarial Evaluation through Fairness Confusion Directed
Gradient Search [8.278129731168127]
ディープニューラルネットワーク(DNN)は、様々な敵の摂動に対する脆弱性のため、しばしば課題に直面している。
本稿では, 偽りや偏りのある摂動を受ける場合のDNNの正確な公平性を評価するための新しいアプローチであるRobustFairを紹介する。
論文 参考訳(メタデータ) (2023-05-18T12:07:29Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Increasing Fairness via Combination with Learning Guarantees [8.116369626226815]
本研究では,個人的,集団的公正性の両面を反映した「差別的リスク(DR)」という公平性評価尺度を提案する。
本研究では,その特性を調査し,理論学習保証と組み合わさることで,公正性を高めることができることを示す。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。