論文の概要: Empirical Likelihood-Based Fairness Auditing: Distribution-Free Certification and Flagging
- arxiv url: http://arxiv.org/abs/2601.20269v1
- Date: Wed, 28 Jan 2026 05:36:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.782441
- Title: Empirical Likelihood-Based Fairness Auditing: Distribution-Free Certification and Flagging
- Title(参考訳): 実証的嗜好に基づくフェアネス監査:配布不要認定とフラッグング
- Authors: Jie Tang, Chuanlong Xie, Xianli Zeng, Lixing Zhu,
- Abstract要約: リシビズム予測や人事自動選択といった高度な応用における機械学習モデルは、しばしば体系的な性能格差を示す。
本稿では,モデル性能の相違に対する頑健な統計的尺度を構築するための実験的可能性ベース(EL)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.71249153088185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models in high-stakes applications, such as recidivism prediction and automated personnel selection, often exhibit systematic performance disparities across sensitive subpopulations, raising critical concerns regarding algorithmic bias. Fairness auditing addresses these risks through two primary functions: certification, which verifies adherence to fairness constraints; and flagging, which isolates specific demographic groups experiencing disparate treatment. However, existing auditing techniques are frequently limited by restrictive distributional assumptions or prohibitive computational overhead. We propose a novel empirical likelihood-based (EL) framework that constructs robust statistical measures for model performance disparities. Unlike traditional methods, our approach is non-parametric; the proposed disparity statistics follow asymptotically chi-square or mixed chi-square distributions, ensuring valid inference without assuming underlying data distributions. This framework uses a constrained optimization profile that admits stable numerical solutions, facilitating both large-scale certification and efficient subpopulation discovery. Empirically, the EL methods outperform bootstrap-based approaches, yielding coverage rates closer to nominal levels while reducing computational latency by several orders of magnitude. We demonstrate the practical utility of this framework on the COMPAS dataset, where it successfully flags intersectional biases, specifically identifying a significantly higher positive prediction rate for African-American males under 25 and a systemic under-prediction for Caucasian females relative to the population mean.
- Abstract(参考訳): リシビズム予測や人事自動選択といった高度な応用における機械学習モデルは、敏感なサブポピュレーションにまたがる体系的なパフォーマンス格差をしばしば示し、アルゴリズムバイアスに関する重要な懸念を提起する。
公正監査は、公正性制約の遵守を検証する認証と、異なる治療を受ける特定の人口集団を分離するフラグングという2つの主要な機能を通じて、これらのリスクに対処する。
しかし,既存の監査手法は,限定的な分布仮定や計算オーバーヘッドによって制限されることが多い。
本稿では,モデル性能の相違に対する頑健な統計的尺度を構築するための実験的可能性ベース(EL)フレームワークを提案する。
従来の手法とは異なり,提案手法は非パラメトリックであり,その差分統計は漸近的にカイ二乗分布や混合チ二乗分布に従っており,基礎となるデータ分布を仮定することなく有効な推論が可能である。
このフレームワークは、安定な数値解を許容する制約付き最適化プロファイルを使用し、大規模な認証と効率的なサブポピュレーション発見の両方を容易にする。
経験的に、EL法はブートストラップに基づくアプローチよりも優れており、数桁の計算遅延を減少させながら、名目レベルに近いカバレッジ率が得られる。
ここでは,25歳未満のアフリカ系アメリカ人男性において,有意に高い正の予測率,および白人女性の平均値に対する体系的下降率を同定し,交叉バイアスのフラグ付けに成功したCompASデータセット上で,この枠組みの実用性を実証する。
関連論文リスト
- Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - Set to Be Fair: Demographic Parity Constraints for Set-Valued Classification [5.085064777896467]
本研究は,人口順と予測サイズ制約の下での集合値分類の問題に対処する。
両制約を満足しながら分類リスクを最小限に抑えるオラクルベースの方法と,制約満足度を優先する計算効率の良いプロキシの2つの補完戦略を提案する。
論文 参考訳(メタデータ) (2025-10-06T15:36:45Z) - Detecting Statistically Significant Fairness Violations in Recidivism Forecasting Algorithms [0.0]
本稿では, 統計的に有意なフェアネス指標違反を識別できる統計検査について紹介する。
我々は,国立司法研究所のデータに基づいて訓練されたリシビズム予測アルゴリズムをテストすることで,このアプローチを実証する。
論文 参考訳(メタデータ) (2025-09-18T17:15:23Z) - Balancing Tails when Comparing Distributions: Comprehensive Equity Index (CEI) with Application to Bias Evaluation in Operational Face Biometrics [45.84303673987677]
Comprehensive Equity Index (CEI)は、顔認識システムにおける人口統計バイアスを検出するために設計された新しい指標である。
実験の結果,CEIは従来手法が不足していたニュアンスバイアスを検出する能力に優れていたことが確認された。
CEIは、運用公正性評価のための堅牢で機密性の高いツールを提供する。
論文 参考訳(メタデータ) (2025-06-12T10:43:31Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z) - Statistical Inference for Fairness Auditing [4.318555434063274]
我々は、このタスクを複数の仮説テストの観点から「フェアネス監査」とみなしている。
ブートストラップを用いて,グループ間のパフォーマンス格差を同時にバインドする方法を示す。
本手法は,モデルアンダーパフォーマンスの影響を受けるサブポピュレーションのフラグ付けや,モデルが適切に機能するサブポピュレーションの認証に利用できる。
論文 参考訳(メタデータ) (2023-05-05T17:54:22Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。