論文の概要: Fair Classification with Group-Dependent Label Noise
- arxiv url: http://arxiv.org/abs/2011.00379v2
- Date: Wed, 17 Feb 2021 00:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:39:23.134843
- Title: Fair Classification with Group-Dependent Label Noise
- Title(参考訳): グループ依存ラベル雑音による公正分類
- Authors: Jialu Wang, Yang Liu, Caleb Levy
- Abstract要約: 本研究は,学習ラベルがランダムノイズで破損した環境で,公平な分類器を訓練する方法を検討する。
異種・集団依存の誤差率を考慮せずに、人口格差尺度にパリティ制約を鼻で課すことにより、その結果の精度と公平性を低下させることができることを示す。
- 参考スコア(独自算出の注目度): 6.324366770332667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work examines how to train fair classifiers in settings where training
labels are corrupted with random noise, and where the error rates of corruption
depend both on the label class and on the membership function for a protected
subgroup. Heterogeneous label noise models systematic biases towards particular
groups when generating annotations. We begin by presenting analytical results
which show that naively imposing parity constraints on demographic disparity
measures, without accounting for heterogeneous and group-dependent error rates,
can decrease both the accuracy and the fairness of the resulting classifier.
Our experiments demonstrate these issues arise in practice as well. We address
these problems by performing empirical risk minimization with carefully defined
surrogate loss functions and surrogate constraints that help avoid the pitfalls
introduced by heterogeneous label noise. We provide both theoretical and
empirical justifications for the efficacy of our methods. We view our results
as an important example of how imposing fairness on biased data sets without
proper care can do at least as much harm as it does good.
- Abstract(参考訳): 本研究は,学習ラベルがランダムノイズで劣化し,破損率がラベルクラスと保護されたサブグループのメンバシップ関数の両方に依存するような環境で,公平な分類器の訓練方法を検討する。
不均質なラベルノイズモデルは、アノテーションを生成する際に特定のグループに対して系統的なバイアスを与える。
まず,不均質および集団依存の誤差率を考慮せずに,人口格差対策に公平な制約を課すことで,その正確性と公平性の両方を低減できることを示す分析結果を提示した。
我々の実験は、これらの問題を実際にも示している。
我々は,不均質なラベルノイズによる落とし穴を回避するために,厳密に定義されたサーロゲート損失関数を用いて経験的リスク最小化を行うことで,これらの問題に対処する。
提案手法の有効性に関する理論的および実証的な正当性を提供する。
私たちはその結果を、適切なケアをせずにバイアス付きデータセットに公平さを課すことが、少なくとも良い結果をもたらすという重要な例だと考えています。
関連論文リスト
- Fair-OBNC: Correcting Label Noise for Fairer Datasets [9.427445881721814]
トレーニングデータのバイアスは ラベルノイズと関連しています
このようなバイアスデータに基づいてトレーニングされたモデルは、センシティブな情報に関してバイアスを永続的に、あるいは悪化させる可能性がある。
公平性を考慮したラベルノイズ補正法であるFair-OBNCを提案する。
論文 参考訳(メタデータ) (2024-10-08T17:18:18Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Systematic analysis of the impact of label noise correction on ML
Fairness [0.0]
偏りのあるデータセットで学習したモデルの公平性を確保するため,ラベルノイズ補正手法の有効性を実証的に評価する手法を開発した。
その結果,ハイブリッドラベル雑音補正法は,予測性能と公平性との最良のトレードオフを実現することが示唆された。
論文 参考訳(メタデータ) (2023-06-28T08:08:14Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Label Noise in Adversarial Training: A Novel Perspective to Study Robust
Overfitting [45.58217741522973]
逆行訓練においてラベルノイズが存在することを示す。
このようなラベルノイズは、正反対例の真のラベル分布とクリーン例から受け継いだラベルとのミスマッチに起因する。
本稿では,ラベルノイズと頑健なオーバーフィッティングに対処するため,ラベルの自動校正手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T01:15:06Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。