論文の概要: Achieving Fairness at No Utility Cost via Data Reweighing with Influence
- arxiv url: http://arxiv.org/abs/2202.00787v2
- Date: Fri, 17 Jun 2022 03:47:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:37:21.759695
- Title: Achieving Fairness at No Utility Cost via Data Reweighing with Influence
- Title(参考訳): 影響を考慮したデータリライジングによる不便なフェアネスの達成
- Authors: Peizhao Li and Hongfu Liu
- Abstract要約: トレーニング段階におけるサンプルの重量のみを調整するデータリライジング手法を提案する。
本研究は,各トレーニングサンプルの影響を,公正度関連量と予測ユーティリティに関して詳細にモデル化する。
当社のアプローチは、トレードオフを実証的に解放し、平等な機会のために無償の公平性を得ることができます。
- 参考スコア(独自算出の注目度): 27.31236521189165
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the fast development of algorithmic governance, fairness has become a
compulsory property for machine learning models to suppress unintentional
discrimination. In this paper, we focus on the pre-processing aspect for
achieving fairness, and propose a data reweighing approach that only adjusts
the weight for samples in the training phase. Different from most previous
reweighing methods which usually assign a uniform weight for each (sub)group,
we granularly model the influence of each training sample with regard to
fairness-related quantity and predictive utility, and compute individual
weights based on influence under the constraints from both fairness and
utility. Experimental results reveal that previous methods achieve fairness at
a non-negligible cost of utility, while as a significant advantage, our
approach can empirically release the tradeoff and obtain cost-free fairness for
equal opportunity. We demonstrate the cost-free fairness through vanilla
classifiers and standard training processes, compared to baseline methods on
multiple real-world tabular datasets. Code available at
https://github.com/brandeis-machine-learning/influence-fairness.
- Abstract(参考訳): アルゴリズムガバナンスの急速な発展に伴い、公正性は意図しない差別を抑制するために機械学習モデルに必須の性質となっている。
本稿では,公平性を達成するための前処理の側面に着目し,トレーニング段階におけるサンプルの重み付けのみを調整するデータ緩和手法を提案する。
各(サブ)グループに一様重みを割り当てる従来のリウィーディング手法とは異なり、フェアネス関連量と予測ユーティリティに関して、各トレーニングサンプルの影響をきめ細やかにモデル化し、公正度と実用性の両方の制約による影響に基づいて個々のウェイトを算出する。
実験結果から,従来手法は実用性に欠けるコストで公正性を達成できたが,有意義な利点として,トレードオフを実証的に解放し,平等な機会に無償で公正性を得ることができた。
バニラ分類器と標準訓練プロセスによるコストフリーフェアネスを実世界の複数の表型データセットのベースライン法と比較した。
コードはhttps://github.com/brandeis-machine-learning/influence-fairness。
関連論文リスト
- Alpha and Prejudice: Improving $α$-sized Worst-case Fairness via Intrinsic Reweighting [34.954141077528334]
既成人口集団との最悪のフェアネスは、最悪の集団のモデルユーティリティを最大化することで、同等性を達成する。
近年の進歩は、最小分割比の低い境界を導入することで、この学習問題を再構築している。
論文 参考訳(メタデータ) (2024-11-05T13:04:05Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Fair Infinitesimal Jackknife: Mitigating the Influence of Biased
Training Data Points Without Refitting [41.96570350954332]
本稿では、慎重に選択されたトレーニングデータポイントをドロップするだけで、事前学習した分類器の公平性を向上するアルゴリズムを提案する。
このような介入はモデルの予測性能を大幅に低下させるものではないが、公正度基準を大幅に改善する。
論文 参考訳(メタデータ) (2022-12-13T18:36:19Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。