論文の概要: Model Explanation Disparities as a Fairness Diagnostic
- arxiv url: http://arxiv.org/abs/2303.01704v1
- Date: Fri, 3 Mar 2023 04:12:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 16:09:53.014713
- Title: Model Explanation Disparities as a Fairness Diagnostic
- Title(参考訳): フェアネス診断としてのモデル説明の相違
- Authors: Peter W. Chang, Leor Fishman, Seth Neel
- Abstract要約: 我々は、リッチな部分群空間を効率的に探索し、大きなFIDを持つ特徴/部分群対を見つけるための2つの方法を開発した。
最初のアプローチでは、分離可能な機能重要度を考慮し、2プレイヤーゼロサムゲームをモデル化する。
第二のアプローチは、分離不能な重要度を考慮し、最適化手法を使って部分群に収束する。
- 参考スコア(独自算出の注目度): 3.480626767752489
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, there has been a flurry of research focusing on the fairness
of machine learning models, and in particular on quantifying and eliminating
bias against subgroups. One prominent line of work generalizes the notion of
subgroups beyond simple discrete classes by introducing the notion of a "rich
subgroup," and seeks to train models that are calibrated or equalize error
rates with respect to these richer subgroup classes. Largely orthogonally,
there has been growing recognition of the importance of understanding how
subgroups of the dataset are being treated relative to the rest of the dataset.
It can easily be shown that certain training features may be significantly more
important (or less important) on a discrete subgroup compared to the whole
dataset with this difference being called Feature Importance Disparity (FID).
However, there are an exponentially large number of rich subgroups defined by a
structured class of functions over protected features (such as race, gender,
age, etc.) and there are many ways that feature importance can be defined. In
this paper, we develop two approaches to efficiently search the rich subgroup
space and find feature/subgroup pairs with large FID that fit within a
specified subgroup size. The first approach considers feature importance
metrics which are separable and models a two-player, zero-sum game to reduce
the computation of subgroups with high FID of constrained size to a
cost-sensitive classification problem. The second approach considers
non-separable importance metrics and uses heuristic optimization techniques to
converge on the subgroups. Both of these approaches were tested on 4 different
datasets with multiple importance notions and found feature/subgroup pairs that
had high FID, often by orders of magnitude, and yield interesting discussions
about the reliability and fairness of the datasets.
- Abstract(参考訳): 近年、機械学習モデルの公正性、特にサブグループに対する偏見の定量化と排除に焦点を当てた研究が盛んに行われている。
1つの顕著な作業は、"リッチな部分群"の概念を導入することによって、単純な離散クラスを超えた部分群の概念を一般化し、これらのリッチな部分群クラスに関して校正されたモデルやエラー率を等化しようとするものである。
大きく直交的に、データセットのサブグループがデータセットの他の部分に対してどのように扱われているかを理解することの重要性が増している。
個々のサブグループにおいて、特定のトレーニング機能がデータセット全体よりも著しく重要(あるいは重要でない)であることを示すことは容易であり、この違いを特徴重要格差(feature importance disparity, fid)と呼ぶ。
しかし、保護された特徴(人種、性別、年齢など)に対する関数の構造化クラスによって定義されるリッチな部分群は指数関数的に多数存在し、特徴的重要性を定義するには多くの方法がある。
本稿では,リッチな部分群空間を効率的に探索し,指定された部分群サイズ内に収まる大きなfidを持つ特徴群/部分群ペアを見つけるための2つのアプローチを考案する。
最初のアプローチでは、分離可能な特徴重要度メトリクスを考慮し、2人のプレイヤーによるゼロサムゲームをモデル化し、制約サイズの高い部分群の計算をコストに敏感な分類問題に還元する。
第二のアプローチは、非分離の重要度を考慮し、ヒューリスティック最適化手法を用いて部分群に収束する。
これらのアプローチは、複数の重要概念を持つ4つの異なるデータセットでテストされ、しばしば桁違いに高いFIDを持つ特徴/サブグループペアを発見し、データセットの信頼性と公平性に関する興味深い議論をもたらした。
関連論文リスト
- Discover and Mitigate Multiple Biased Subgroups in Image Classifiers [45.96784278814168]
機械学習モデルは、分散データではうまく機能するが、トレーニングデータに不足している偏りのあるサブグループでは失敗することが多い。
この問題に対処するために,分解,解釈,緩和(DIM)を提案する。
提案手法では,画像特徴を複数のサブグループを表す複数のコンポーネントに分解する。
論文 参考訳(メタデータ) (2024-03-19T14:44:54Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Temperature Schedules for Self-Supervised Contrastive Methods on
Long-Tail Data [87.77128754860983]
本稿では,ロングテールデータ上での自己教師付き学習(SSL)の行動分析を行う。
大きな$tau$はグループ的な差別を強調するのに対し、小さな$tau$はより高いインスタンスの差別をもたらす。
動的$tau$を用いて、簡単なコサインスケジュールが学習表現に大きな改善をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-23T20:37:25Z) - Leveraging Structure for Improved Classification of Grouped Biased Data [8.121462458089143]
データポイントが自然にグループ化されるアプリケーションに対する半教師付きバイナリ分類を検討する。
我々は、この構造を明示的に活用し、最適、グループ対応、確率出力の分類器を学習する半教師付きアルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-12-07T15:18:21Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - BiasEnsemble: Revisiting the Importance of Amplifying Bias for Debiasing [31.665352191081357]
Debiasing”は、データセットバイアスの影響を受けにくいように分類器をトレーニングすることを目的としている。
$f_B$はバイアス整合サンプルにフォーカスするよう訓練され、$f_D$は主にバイアス整合サンプルでトレーニングされる。
本稿では,バイアス分散サンプルを除去する新しいバイアス付きサンプル選択法であるBiasEnsembleを提案する。
論文 参考訳(メタデータ) (2022-05-29T07:55:06Z) - Addressing Missing Sources with Adversarial Support-Matching [8.53946780558779]
そこで本研究では,データ内の2段階階層の2段階に,データの欠如が関係しているシナリオについて検討する。
アルゴリズム的公正性から保護された群の概念に触発され、この第2階層によって彫られた分割を「部分群」と呼ぶ。
私たちは、サブグループに不変な表現を学ぶために、"deployment set"と呼ばれる追加で多様だがラベルなしのデータセットを使用します。
論文 参考訳(メタデータ) (2022-03-24T16:19:19Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。