論文の概要: Achieving Fairness at No Utility Cost via Data Reweighing
- arxiv url: http://arxiv.org/abs/2202.00787v1
- Date: Tue, 1 Feb 2022 22:12:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 15:25:13.704923
- Title: Achieving Fairness at No Utility Cost via Data Reweighing
- Title(参考訳): データリライディングによる不便なコストで公正を達成する
- Authors: Peizhao Li and Hongfu Liu
- Abstract要約: トレーニング段階におけるサンプルの重量のみを調整するデータリライジング手法を提案する。
フェアネスと予測ユーティリティに関する各トレーニングサンプルの影響をきめ細やかにモデル化し、フェアネスとユーティリティの両方の制約による影響に基づいて個々のウェイトを計算する。
- 参考スコア(独自算出の注目度): 27.31236521189165
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the fast development of algorithmic governance, fairness has become a
compulsory property for machine learning models to suppress unintentional
discrimination. In this paper, we focus on the pre-processing aspect for
achieving fairness, and propose a data reweighing approach that only adjusts
the weight for samples in the training phase. Different from most previous
reweighing methods which assign a uniform weight for each (sub)group, we
granularly model the influence from each training sample with regard to
fairness and predictive utility, and compute individual weights based on the
influence with constraints of both fairness and utility. Experimental results
reveal that previous methods achieve fairness at a non-negligible cost of
utility, while as a significant advantage, our approach can empirically release
the tradeoff and obtain cost-free fairness. We demonstrate the cost-free
fairness through vanilla classifiers and standard training processes on
different fairness notions, compared to baseline methods on multiple tabular
datasets.
- Abstract(参考訳): アルゴリズムガバナンスの急速な発展に伴い、公正性は意図しない差別を抑制するために機械学習モデルに必須の性質となっている。
本稿では,公平性を達成するための前処理の側面に着目し,トレーニング段階におけるサンプルの重み付けのみを調整するデータ緩和手法を提案する。
各(サブ)グループに一様重みを割り当てる従来の改良法と異なり、各トレーニングサンプルからフェアネスと予測実用性に関する影響を詳細にモデル化し、フェアネスと実用性の両方の制約の影響に基づいて個々の重みを計算する。
実験の結果, 従来手法では, 実用性に乏しいコストで公平性を達成できたが, 重要な利点として, 実証的にトレードオフを解放し, コストフリーな公平性を得ることができた。
複数の表型データセットのベースラインメソッドと比較して,バニラ分類器と標準訓練プロセスによるコストフリーフェアネスを異なるフェアネス概念で示す。
関連論文リスト
- Fair Classifiers Without Fair Training: An Influence-Guided Data
Sampling Approach [34.09122690831707]
我々は、機密情報の漏洩を避けるために、公正な訓練アルゴリズムを実装することなく、公正な分類法を学習する。
提案手法の有効性を理論的に検証し,適切な分布シフトを持つデータセット上での従来型トレーニングにより,公平性差の上限とモデル一般化誤差の両方を低減できることを示した。
そこで,本研究では, 学習中のトレーニングデータを段階的に段階的に変化させる, 学習において, 新たなデータの機密属性にアクセスできない, あるいはトレーニングに使用するような, 学習中のトレーニングデータを段階的に変化させる, トラクタブルなソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Boosting Fair Classifier Generalization through Adaptive Priority
Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Fair Infinitesimal Jackknife: Mitigating the Influence of Biased
Training Data Points Without Refitting [41.96570350954332]
本稿では、慎重に選択されたトレーニングデータポイントをドロップするだけで、事前学習した分類器の公平性を向上するアルゴリズムを提案する。
このような介入はモデルの予測性能を大幅に低下させるものではないが、公正度基準を大幅に改善する。
論文 参考訳(メタデータ) (2022-12-13T18:36:19Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in
Regression Machine Learning Problems [0.0]
回帰問題における不公平さの影響を最小限に抑えるため, 正規化(FaiReg)に基づく簡易かつ効果的な手法を提案する。
本手法を,データバランシングと対向訓練という,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減し、また、元の問題の性能を低下させることなく、優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。