論文の概要: Inferring Unfairness and Error from Population Statistics in Binary and
Multiclass Classification
- arxiv url: http://arxiv.org/abs/2206.03234v1
- Date: Tue, 7 Jun 2022 12:26:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 14:27:46.082089
- Title: Inferring Unfairness and Error from Population Statistics in Binary and
Multiclass Classification
- Title(参考訳): 二分分類と多類分類における人口統計から不公平さと誤差を推測する
- Authors: Sivan Sabato, Eran Treister, Elad Yom-Tov
- Abstract要約: マルチクラス分類に一般化した等化オッズ基準に関する公平性について検討する。
本稿では,集合ラベル統計のみを用いて,与えられた分類器の不公平さと誤りを推測する方法を示す。
- 参考スコア(独自算出の注目度): 24.806985592882867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose methods for making inferences on the fairness and accuracy of a
given classifier, using only aggregate population statistics. This is necessary
when it is impossible to obtain individual classification data, for instance
when there is no access to the classifier or to a representative
individual-level validation set. We study fairness with respect to the
equalized odds criterion, which we generalize to multiclass classification. We
propose a measure of unfairness with respect to this criterion, which
quantifies the fraction of the population that is treated unfairly. We then
show how inferences on the unfairness and error of a given classifier can be
obtained using only aggregate label statistics such as the rate of prediction
of each label in each sub-population, as well as the true rate of each label.
We derive inference procedures for binary classifiers and for multiclass
classifiers, for the case where confusion matrices in each sub-population are
known, and for the significantly more challenging case where they are unknown.
We report experiments on data sets representing diverse applications, which
demonstrate the effectiveness and the wide range of possible uses of the
proposed methodology.
- Abstract(参考訳): 本稿では,集団統計のみを用いて,与えられた分類器の妥当性と精度を推定する手法を提案する。
これは、例えば、分類器または代表的個人レベルの検証セットにアクセスできない場合、個別の分類データを得ることができない場合に必要である。
マルチクラス分類に一般化した等化オッズ基準に関する公平性について検討する。
本稿では、不公平に扱われる人口の割合を定量化する、この基準に関する不公平度尺度を提案する。
次に,各個体群における各ラベルの予測率や各ラベルの真数といった集計ラベル統計を用いて,与えられた分類器の不公平さや誤差に対する推論がどのように得られるかを示す。
各サブポピュレーションにおける混乱行列が知られている場合、およびそれらが未知である場合において、バイナリ分類器とマルチクラス分類器の推論手順を導出する。
提案手法の有効性と適用範囲を検証し,多種多様なアプリケーションを表すデータセットについて実験を行った。
関連論文リスト
- Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Arbitrariness and Social Prediction: The Confounding Role of Variance in
Fair Classification [31.392067805022414]
異なる訓練されたモデル間での予測のばらつきは、公正なバイナリ分類における重要な、未探索のエラーの原因である。
実際には、いくつかのデータ例のばらつきは非常に大きいので、決定を効果的に任意にすることができる。
予測が任意である場合に分類を省略するアンサンブルアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-27T06:52:04Z) - Realistic Evaluation of Transductive Few-Shot Learning [41.06192162435249]
トランスダクティブ推論は、数ショットの学習で広く使われている。
推論における少数ショットタスクの問合せセット内における任意のクラス分布の効果について検討する。
我々は,3つの広く使用されているデータセットに対して,最先端のトランスダクティブ手法を実験的に評価した。
論文 参考訳(メタデータ) (2022-04-24T03:35:06Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Multi-Class Classification from Single-Class Data with Confidences [90.48669386745361]
本稿では,損失/モデル/最適化非依存のリスク最小化フレームワークを提案する。
提案手法は, 与えられた信頼度が高ノイズであっても, 簡易な修正でベイズ整合性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:38:13Z) - A Statistical Test for Probabilistic Fairness [11.95891442664266]
不正な分類を検知するための統計的仮説テストを提案する。
理論的にも実証的にも,提案された試験が正しいことを示す。
さらに,提案フレームワークは,データの最も好ましい摂動を識別することにより,解釈可能性を提供する。
論文 参考訳(メタデータ) (2020-12-09T00:20:02Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Classifier uncertainty: evidence, potential impact, and probabilistic
treatment [0.0]
本稿では,混乱行列の確率モデルに基づいて,分類性能指標の不確かさを定量化する手法を提案する。
我々は、不確実性は驚くほど大きく、性能評価を制限できることを示した。
論文 参考訳(メタデータ) (2020-06-19T12:49:19Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。