論文の概要: Fair Classifiers Without Fair Training: An Influence-Guided Data
Sampling Approach
- arxiv url: http://arxiv.org/abs/2402.12789v1
- Date: Tue, 20 Feb 2024 07:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 16:35:57.390067
- Title: Fair Classifiers Without Fair Training: An Influence-Guided Data
Sampling Approach
- Title(参考訳): 公平なトレーニングのない公平な分類器:影響誘導データサンプリングアプローチ
- Authors: Jinlong Pang, Jialu Wang, Zhaowei Zhu, Yuanshun Yao, Chen Qian and
Yang Liu
- Abstract要約: 我々は、機密情報の漏洩を避けるために、公正な訓練アルゴリズムを実装することなく、公正な分類法を学習する。
提案手法の有効性を理論的に検証し,適切な分布シフトを持つデータセット上での従来型トレーニングにより,公平性差の上限とモデル一般化誤差の両方を低減できることを示した。
そこで,本研究では, 学習中のトレーニングデータを段階的に段階的に変化させる, 学習において, 新たなデータの機密属性にアクセスできない, あるいはトレーニングに使用するような, 学習中のトレーニングデータを段階的に変化させる, トラクタブルなソリューションを提案する。
- 参考スコア(独自算出の注目度): 34.09122690831707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fair classifier should ensure the benefit of people from different groups,
while the group information is often sensitive and unsuitable for model
training. Therefore, learning a fair classifier but excluding sensitive
attributes in the training dataset is important. In this paper, we study
learning fair classifiers without implementing fair training algorithms to
avoid possible leakage of sensitive information. Our theoretical analyses
validate the possibility of this approach, that traditional training on a
dataset with an appropriate distribution shift can reduce both the upper bound
for fairness disparity and model generalization error, indicating that fairness
and accuracy can be improved simultaneously with simply traditional training.
We then propose a tractable solution to progressively shift the original
training data during training by sampling influential data, where the sensitive
attribute of new data is not accessed in sampling or used in training.
Extensive experiments on real-world data demonstrate the effectiveness of our
proposed algorithm.
- Abstract(参考訳): 公平な分類器は、異なるグループの人々の利益を保証すべきだが、グループ情報は、しばしばセンシティブで、モデルトレーニングに適さない。
したがって、トレーニングデータセット内の機密属性を除外した公平な分類器の学習が重要である。
本稿では,機密情報の漏洩を避けるために,公平な学習アルゴリズムを実装せずに,公平な分類法を学習する。
提案手法の妥当性を理論的に検証し,適切な分布シフトを持つデータセット上での従来型トレーニングは,公平性差の上限とモデル一般化誤差の両方を低減し,公正性と精度を従来のトレーニングと同時に向上させることができることを示す。
そこで本研究では,新しいデータの感度の高い属性がサンプリングやトレーニングでアクセスされないような,影響のあるデータをサンプリングすることで,トレーニング中に元のトレーニングデータを段階的にシフトさせる方法を提案する。
実世界のデータに対する大規模な実験により,提案アルゴリズムの有効性が示された。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Does Data Repair Lead to Fair Models? Curating Contextually Fair Data To
Reduce Model Bias [10.639605996067534]
コンテキスト情報は、より優れた表現を学び、精度を向上させるために、ディープニューラルネットワーク(DNN)にとって貴重なキューである。
COCOでは、多くの対象カテゴリーは、男性よりも男性の方がはるかに高い共起性を持ち、男性に有利なDNNの予測を偏見を与える可能性がある。
本研究では, 変動係数を用いたデータ修復アルゴリズムを導入し, 保護されたクラスに対して, 公平かつ文脈的にバランスの取れたデータをキュレートする。
論文 参考訳(メタデータ) (2021-10-20T06:00:03Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Unfairness Discovery and Prevention For Few-Shot Regression [9.95899391250129]
歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
論文 参考訳(メタデータ) (2020-09-23T22:34:06Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。