論文の概要: Auditing Predictive Models for Intersectional Biases
- arxiv url: http://arxiv.org/abs/2306.13064v1
- Date: Thu, 22 Jun 2023 17:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 13:27:59.313889
- Title: Auditing Predictive Models for Intersectional Biases
- Title(参考訳): 間欠的バイアスの予測モデルの検討
- Authors: Kate S. Boxer, Edward McFowland III, Daniel B. Neill
- Abstract要約: Conditional Bias Scan (CBS)は、分類モデルにおける交差バイアスを検出するフレキシブル監査フレームワークである。
CBSは、保護されていないクラスの同等のサブグループと比較して、保護されたクラスに対して最も重要なバイアスがあるサブグループを特定している。
本手法は,CompAS前リスクアセスメントツールにおいて,未同定の交差点バイアスとコンテキストバイアスを検出できることを示す。
- 参考スコア(独自算出の注目度): 1.9346186297861747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predictive models that satisfy group fairness criteria in aggregate for
members of a protected class, but do not guarantee subgroup fairness, could
produce biased predictions for individuals at the intersection of two or more
protected classes. To address this risk, we propose Conditional Bias Scan
(CBS), a flexible auditing framework for detecting intersectional biases in
classification models. CBS identifies the subgroup for which there is the most
significant bias against the protected class, as compared to the equivalent
subgroup in the non-protected class, and can incorporate multiple commonly used
fairness definitions for both probabilistic and binarized predictions. We show
that this methodology can detect previously unidentified intersectional and
contextual biases in the COMPAS pre-trial risk assessment tool and has higher
bias detection power compared to similar methods that audit for subgroup
fairness.
- Abstract(参考訳): 保護クラスのメンバーの集合におけるグループフェアネス基準を満たすが、サブグループフェアネスを保証しない予測モデルは、2つ以上の保護クラスの交差点で個人に対するバイアス付き予測を生成する。
このリスクに対処するため,分類モデルの交差バイアスを検出するためのフレキシブル監査フレームワークであるConditional Bias Scan (CBS)を提案する。
CBSは、保護されたクラスに対する最も重要なバイアスがあるサブグループを、保護されていないクラスの同等のサブグループと比較して特定し、確率的および二項化予測の両方に複数の一般的なフェアネス定義を組み込むことができる。
本手法は,CompAS前リスクアセスメントツールにおいて,未同定の交差点バイアスや文脈バイアスを検出でき,サブグループフェアネスを監査する類似手法と比較して高いバイアス検出能力を有することを示す。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - A Universal Unbiased Method for Classification from Aggregate
Observations [115.20235020903992]
本稿では,任意の損失に対する分類リスクを非バイアスで推定するCFAOの普遍的手法を提案する。
提案手法は,非バイアスリスク推定器によるリスクの整合性を保証するだけでなく,任意の損失に対応できる。
論文 参考訳(メタデータ) (2023-06-20T07:22:01Z) - Class-Conditional Conformal Prediction with Many Classes [60.8189977620604]
類似した共形スコアを持つクラスをクラスタ化するクラスタ化共形予測法を提案する。
クラスタ化されたコンフォメーションは、クラス条件カバレッジとセットサイズメトリクスの点で、既存のメソッドよりも一般的に優れています。
論文 参考訳(メタデータ) (2023-06-15T17:59:02Z) - Statistical Inference for Fairness Auditing [4.318555434063274]
我々は、このタスクを複数の仮説テストの観点から「フェアネス監査」とみなしている。
ブートストラップを用いて,グループ間のパフォーマンス格差を同時にバインドする方法を示す。
本手法は,モデルアンダーパフォーマンスの影響を受けるサブポピュレーションのフラグ付けや,モデルが適切に機能するサブポピュレーションの認証に利用できる。
論文 参考訳(メタデータ) (2023-05-05T17:54:22Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。