論文の概要: Kernel-based Equalized Odds: A Quantification of Accuracy-Fairness Trade-off in Fair Representation Learning
- arxiv url: http://arxiv.org/abs/2508.15084v1
- Date: Wed, 20 Aug 2025 21:41:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.10143
- Title: Kernel-based Equalized Odds: A Quantification of Accuracy-Fairness Trade-off in Fair Representation Learning
- Title(参考訳): カーネルに基づく等化オッド:公正表現学習における正確性と公平性のトレードオフの定量化
- Authors: Yijin Ni, Xiaoming Huo,
- Abstract要約: 本稿では、公平な表現学習のために、EO_k$と表記されるEqualized Odds criterionのカーネルベースの新しい定式化を提案する。
EO_k$は、前者の独立性と分離の両方を満たすことを示し、予測精度をユニークに保存する。
さらに、2次時間で計算できるカーネルベースの統計量である$hatEO_k$を実証的に定義する。
- 参考スコア(独自算出の注目度): 4.757470449749877
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a novel kernel-based formulation of the Equalized Odds (EO) criterion, denoted as $EO_k$, for fair representation learning (FRL) in supervised settings. The central goal of FRL is to mitigate discrimination regarding a sensitive attribute $S$ while preserving prediction accuracy for the target variable $Y$. Our proposed criterion enables a rigorous and interpretable quantification of three core fairness objectives: independence (prediction $\hat{Y}$ is independent of $S$), separation (also known as equalized odds; prediction $\hat{Y}$ is independent with $S$ conditioned on target attribute $Y$), and calibration ($Y$ is independent of $S$ conditioned on the prediction $\hat{Y}$). Under both unbiased ($Y$ is independent of $S$) and biased ($Y$ depends on $S$) conditions, we show that $EO_k$ satisfies both independence and separation in the former, and uniquely preserves predictive accuracy while lower bounding independence and calibration in the latter, thereby offering a unified analytical characterization of the tradeoffs among these fairness criteria. We further define the empirical counterpart, $\hat{EO}_k$, a kernel-based statistic that can be computed in quadratic time, with linear-time approximations also available. A concentration inequality for $\hat{EO}_k$ is derived, providing performance guarantees and error bounds, which serve as practical certificates of fairness compliance. While our focus is on theoretical development, the results lay essential groundwork for principled and provably fair algorithmic design in future empirical studies.
- Abstract(参考訳): 本稿では,Fair representation learning (FRL) において,EO_k$(EO_k$) と表記されるカーネルを基準とした新しい定式化を提案する。
FRLの主な目標は、ターゲット変数$Y$の予測精度を維持しながら、センシティブな属性$S$に関する差別を緩和することである。
提案した基準は、独立性(prediction $\hat{Y}$ is independent of $S$)、分離性( equalized odds とも呼ばれる)、予測$\hat{Y}$ is independent with $S$ conditioned on target attribute $Y$)、キャリブレーション(Y$ is independent of $S$ on the prediction $\hat{Y}$)である。
バイアスなし(Y$は$S$とは独立)とバイアス付き(Y$は$S$に依存します)の両方の条件の下では、$EO_k$は前者の独立性と分離の両方を満足し、後者の独立性とキャリブレーションを低くしながら予測精度をユニークに保ち、これらのフェアネス基準の中でトレードオフの統一的な分析的特徴を提供することを示す。
さらに、実測値である $\hat{EO}_k$ は、2次時間で計算できるカーネルベースの統計量であり、線形時間近似も利用可能である。
$\hat{EO}_k$ の集中不等式が導出され、パフォーマンス保証とエラーバウンダリが提供され、フェアネスコンプライアンスの実践的な証明書として機能する。
我々の研究は理論開発に焦点が当てられているが、この結果は将来の実証研究において、原理的かつ証明可能な公正なアルゴリズム設計に不可欠な基礎を築いた。
関連論文リスト
- Backward Conformal Prediction [49.1574468325115]
我々は、予測セットのサイズを柔軟に制御しながら、コンフォーマルカバレッジを保証するメソッドである$textitBackward Conformal Prediction$を紹介した。
提案手法は,観測データに基づいて,予測セットサイズがどう振る舞うかを制約するルールを定義し,それに応じてカバレッジレベルを適応させる。
このアプローチは、医療診断のような大きな予測セットが実用的でないアプリケーションで特に有用である。
論文 参考訳(メタデータ) (2025-05-19T21:08:14Z) - Regression-Based Estimation of Causal Effects in the Presence of Selection Bias and Confounding [52.1068936424622]
治療が介入によって設定された場合、対象変数$Y$に対して、予測因果効果$E[Y|do(X)]$を推定する問題を考える。
選択バイアスや欠点のない設定では、$E[Y|do(X)] = E[Y|X]$ となる。
選択バイアスとコンバウンディングの両方を組み込んだフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-26T13:43:37Z) - Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Metric-Fair Classifier Derandomization [6.269732593554894]
機械学習における分類器のデランドマイズ問題について検討する。
事前のデランドマイズ法は, ほぼ最大値の不等式であることを示す。
我々はこれらの2つの間の魅力的なトレードオフを提供するデランドマイズ手順を考案する。
論文 参考訳(メタデータ) (2022-06-15T21:36:57Z) - Measuring Model Fairness under Noisy Covariates: A Theoretical
Perspective [26.704446184314506]
本研究では,雑音情報に基づく機械学習モデルの公平性の測定問題について検討する。
本稿では, 精度の高い公平性評価が可能な弱い条件を特徴付けることを目的とした理論的解析を行う。
論文 参考訳(メタデータ) (2021-05-20T18:36:28Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Optimal rates for independence testing via $U$-statistic permutation
tests [7.090165638014331]
独立分布と同一分布のペアが$sigma$-finiteで分離可能な測度空間で値を取る独立性テストの問題について検討する。
最初に、独立性の有効なテストはなく、$f: D(f) geq rho2 $ という形の代替と一様に一致していることを示す。
論文 参考訳(メタデータ) (2020-01-15T19:04:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。