論文の概要: Model Explanation Disparities as a Fairness Diagnostic
- arxiv url: http://arxiv.org/abs/2303.01704v2
- Date: Mon, 6 Mar 2023 16:52:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 12:08:27.953533
- Title: Model Explanation Disparities as a Fairness Diagnostic
- Title(参考訳): フェアネス診断としてのモデル説明の相違
- Authors: Peter W. Chang, Leor Fishman, Seth Neel
- Abstract要約: 我々は、リッチサブグループの文脈において、特徴重要格差(FID)の概念を導入する。
我々は、大規模なFIDサブグループを特定するために、オラクル効率のアルゴリズムを設計する。
我々は、データセットバイアスを調査するための重要な方法として、FIDの監査を確立するための徹底的な実証分析を行う。
- 参考スコア(独自算出の注目度): 3.480626767752489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, there has been a flurry of research focusing on the fairness
of machine learning models, and in particular on quantifying and eliminating
bias against protected subgroups. One line of work generalizes the notion of
protected subgroups beyond simple discrete classes by introducing the notion of
a "rich subgroup", and seeks to train models that are calibrated or equalize
error rates with respect to these richer subgroup classes. Largely
orthogonally, local model explanation methods have been developed that given a
classifier h and test point x, attribute influence for the prediction h(x) to
the individual features of x. This raises a natural question: Do local model
explanation methods attribute different feature importance values on average
across different protected subgroups, and can we detect these disparities
efficiently? If the model places high weight on a given feature in a specific
protected subgroup, but not on the dataset overall (or vice versa), this could
be a potential indicator of bias in the predictive model or the underlying data
generating process, and is at the very least a useful diagnostic that signals
the need for a domain expert to delve deeper. In this paper, we formally
introduce the notion of feature importance disparity (FID) in the context of
rich subgroups, design oracle-efficent algorithms to identify large FID
subgroups, and conduct a thorough empirical analysis that establishes auditing
for FID as an important method to investigate dataset bias. Our experiments
show that across 4 datasets and 4 common feature importance methods our
algorithms find (feature, subgroup) pairs that simultaneously: (i) have
subgroup feature importance that is often an order of magnitude different than
the importance on the dataset as a whole (ii) generalize out of sample, and
(iii) yield interesting discussions about potential bias inherent in these
datasets.
- Abstract(参考訳): 近年、機械学習モデルの公平性、特に保護された部分群に対するバイアスの定量化と排除に焦点を当てた研究が盛んに行われている。
1行の作業は、"リッチな部分群"の概念を導入することによって、単純な離散クラスを超えて保護された部分群の概念を一般化し、これらのリッチな部分群クラスに関して校正されたモデルやエラー率の等化を求める。
主に直交的に局所モデル説明法が開発され、クラス化 h とテストポイント x が与えられたとき、x の個々の特徴に対する予測 h(x) に対する属性の影響が与えられる。
局所モデル説明法は、異なる保護されたサブグループの平均的な特徴重要度を属性としており、これらの格差を効率的に検出できるだろうか?
モデルが特定の保護されたサブグループの特定の特徴に対して高い重みを付けるが、データセット全体(あるいはその逆も)には当てはまらない場合、これは予測モデルや基礎となるデータ生成プロセスにおけるバイアスの潜在的な指標になり得る。
本稿では,リッチサブグループの文脈において特徴量格差 (fid) の概念を正式に導入し,大規模fidサブグループを識別するためのoracle-efficentアルゴリズムの設計と,データセットバイアスを調査するための重要な方法としてfidの監査を確立する徹底的な経験的分析を行う。
実験の結果,4つのデータセットと4つの共通特徴重み付け手法で,アルゴリズムが同時に(機能,サブグループ)ペアを見つけることがわかった。
(i)データセット全体の重要性と等級が異なる部分群の特徴の重要性
(ii)サンプルから一般化し、
(iii)これらのデータセットに内在する潜在的なバイアスについての興味深い議論をもたらす。
関連論文リスト
- Discover and Mitigate Multiple Biased Subgroups in Image Classifiers [45.96784278814168]
機械学習モデルは、分散データではうまく機能するが、トレーニングデータに不足している偏りのあるサブグループでは失敗することが多い。
この問題に対処するために,分解,解釈,緩和(DIM)を提案する。
提案手法では,画像特徴を複数のサブグループを表す複数のコンポーネントに分解する。
論文 参考訳(メタデータ) (2024-03-19T14:44:54Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Temperature Schedules for Self-Supervised Contrastive Methods on
Long-Tail Data [87.77128754860983]
本稿では,ロングテールデータ上での自己教師付き学習(SSL)の行動分析を行う。
大きな$tau$はグループ的な差別を強調するのに対し、小さな$tau$はより高いインスタンスの差別をもたらす。
動的$tau$を用いて、簡単なコサインスケジュールが学習表現に大きな改善をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-23T20:37:25Z) - Leveraging Structure for Improved Classification of Grouped Biased Data [8.121462458089143]
データポイントが自然にグループ化されるアプリケーションに対する半教師付きバイナリ分類を検討する。
我々は、この構造を明示的に活用し、最適、グループ対応、確率出力の分類器を学習する半教師付きアルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-12-07T15:18:21Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - BiasEnsemble: Revisiting the Importance of Amplifying Bias for Debiasing [31.665352191081357]
Debiasing”は、データセットバイアスの影響を受けにくいように分類器をトレーニングすることを目的としている。
$f_B$はバイアス整合サンプルにフォーカスするよう訓練され、$f_D$は主にバイアス整合サンプルでトレーニングされる。
本稿では,バイアス分散サンプルを除去する新しいバイアス付きサンプル選択法であるBiasEnsembleを提案する。
論文 参考訳(メタデータ) (2022-05-29T07:55:06Z) - Addressing Missing Sources with Adversarial Support-Matching [8.53946780558779]
そこで本研究では,データ内の2段階階層の2段階に,データの欠如が関係しているシナリオについて検討する。
アルゴリズム的公正性から保護された群の概念に触発され、この第2階層によって彫られた分割を「部分群」と呼ぶ。
私たちは、サブグループに不変な表現を学ぶために、"deployment set"と呼ばれる追加で多様だがラベルなしのデータセットを使用します。
論文 参考訳(メタデータ) (2022-03-24T16:19:19Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。