論文の概要: Size-adaptive Hypothesis Testing for Fairness
- arxiv url: http://arxiv.org/abs/2506.10586v1
- Date: Thu, 12 Jun 2025 11:22:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.702201
- Title: Size-adaptive Hypothesis Testing for Fairness
- Title(参考訳): フェアネスのためのサイズ適応型仮説テスト
- Authors: Antonio Ferrara, Francesco Cozzi, Alan Perotti, André Panisson, Francesco Bonchi,
- Abstract要約: 我々は、公正性評価を証拠に基づく統計的決定に変換する統一的、サイズ適応的、仮説テストフレームワークを導入する。
統計的パリティ差に対して中央限の結果が証明され、解析的信頼区間と、タイプI(偽陽性)エラーがレベル$alpha$で保証されるウォルド試験が導かれる。
小さな交叉群の長い尾に対して、完全ベイズ的ディリクレ・マルチノミカル推定器を導出する。
- 参考スコア(独自算出の注目度): 8.315080617799445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Determining whether an algorithmic decision-making system discriminates against a specific demographic typically involves comparing a single point estimate of a fairness metric against a predefined threshold. This practice is statistically brittle: it ignores sampling error and treats small demographic subgroups the same as large ones. The problem intensifies in intersectional analyses, where multiple sensitive attributes are considered jointly, giving rise to a larger number of smaller groups. As these groups become more granular, the data representing them becomes too sparse for reliable estimation, and fairness metrics yield excessively wide confidence intervals, precluding meaningful conclusions about potential unfair treatments. In this paper, we introduce a unified, size-adaptive, hypothesis-testing framework that turns fairness assessment into an evidence-based statistical decision. Our contribution is twofold. (i) For sufficiently large subgroups, we prove a Central-Limit result for the statistical parity difference, leading to analytic confidence intervals and a Wald test whose type-I (false positive) error is guaranteed at level $\alpha$. (ii) For the long tail of small intersectional groups, we derive a fully Bayesian Dirichlet-multinomial estimator; Monte-Carlo credible intervals are calibrated for any sample size and naturally converge to Wald intervals as more data becomes available. We validate our approach empirically on benchmark datasets, demonstrating how our tests provide interpretable, statistically rigorous decisions under varying degrees of data availability and intersectionality.
- Abstract(参考訳): アルゴリズムによる意思決定システムが特定の人口層に対して差別するかどうかを決定するには、通常、公正度メトリックの単一点推定と予め定義された閾値を比較する必要がある。
この慣行は統計的に不安定であり、サンプリングエラーを無視し、小さな集団のサブグループを大きなグループと同じ扱いをする。
この問題は、複数の敏感な属性が一緒に考慮されるような交叉解析において強化され、より小さなグループが多くなる。
これらの群がより粒度を増すにつれて、それらを表すデータは信頼性の高い推定には小さすぎるため、公正度指標は過度に広範囲な信頼区間をもたらし、潜在的不公平な治療に関する有意義な結論を導く。
本稿では,公正性評価を証拠に基づく統計的決定に変換する,統一的,サイズ適応型,仮説検証フレームワークを提案する。
私たちの貢献は2倍です。
i) 十分に大きな部分群に対して、統計的パリティ差の中央極限結果が証明され、解析的信頼区間と、型I(偽正)誤差がレベル$\alpha$で保証されるウォルド試験が導かれる。
(II)小さな交叉群の長い尾に対して、完全ベイズ・ディリクレ・マルチチノミカル推定器(英語版)を導出し、モンテカルロの信頼区間は任意のサンプルサイズに対して校正され、より多くのデータが利用可能になるにつれてウォルド区間に自然収束する。
ベンチマークデータセット上で、我々のアプローチを実証的に検証し、データ可用性と交叉性の違いの下で、我々のテストがどのように解釈可能で統計的に厳密な決定を提供するかを実証する。
関連論文リスト
- Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Statistical Inference for Fairness Auditing [4.318555434063274]
我々は、このタスクを複数の仮説テストの観点から「フェアネス監査」とみなしている。
ブートストラップを用いて,グループ間のパフォーマンス格差を同時にバインドする方法を示す。
本手法は,モデルアンダーパフォーマンスの影響を受けるサブポピュレーションのフラグ付けや,モデルが適切に機能するサブポピュレーションの認証に利用できる。
論文 参考訳(メタデータ) (2023-05-05T17:54:22Z) - Testing Group Fairness via Optimal Transport Projections [12.972104025246091]
提案試験は, 摂動に偏りを示すか, データのランダム性に起因するかを評価するための, 柔軟な, 解釈可能な, 統計的に厳密なツールである。
グループフェアネスを定義する複数の影響基準から生じる可能性のある統計的課題は、グループフェア確率モデルの集合に経験的測度を投影することによって、都合よく取り組まれる。
提案フレームワークは,複数属性の合成固有フェアネス仮説およびフェアネスの試験にも使用することができる。
論文 参考訳(メタデータ) (2021-06-02T10:51:39Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。