論文の概要: Achieving Fairness at No Utility Cost via Data Reweighing
- arxiv url: http://arxiv.org/abs/2202.00787v1
- Date: Tue, 1 Feb 2022 22:12:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 15:25:13.704923
- Title: Achieving Fairness at No Utility Cost via Data Reweighing
- Title(参考訳): データリライディングによる不便なコストで公正を達成する
- Authors: Peizhao Li and Hongfu Liu
- Abstract要約: トレーニング段階におけるサンプルの重量のみを調整するデータリライジング手法を提案する。
フェアネスと予測ユーティリティに関する各トレーニングサンプルの影響をきめ細やかにモデル化し、フェアネスとユーティリティの両方の制約による影響に基づいて個々のウェイトを計算する。
- 参考スコア(独自算出の注目度): 27.31236521189165
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the fast development of algorithmic governance, fairness has become a
compulsory property for machine learning models to suppress unintentional
discrimination. In this paper, we focus on the pre-processing aspect for
achieving fairness, and propose a data reweighing approach that only adjusts
the weight for samples in the training phase. Different from most previous
reweighing methods which assign a uniform weight for each (sub)group, we
granularly model the influence from each training sample with regard to
fairness and predictive utility, and compute individual weights based on the
influence with constraints of both fairness and utility. Experimental results
reveal that previous methods achieve fairness at a non-negligible cost of
utility, while as a significant advantage, our approach can empirically release
the tradeoff and obtain cost-free fairness. We demonstrate the cost-free
fairness through vanilla classifiers and standard training processes on
different fairness notions, compared to baseline methods on multiple tabular
datasets.
- Abstract(参考訳): アルゴリズムガバナンスの急速な発展に伴い、公正性は意図しない差別を抑制するために機械学習モデルに必須の性質となっている。
本稿では,公平性を達成するための前処理の側面に着目し,トレーニング段階におけるサンプルの重み付けのみを調整するデータ緩和手法を提案する。
各(サブ)グループに一様重みを割り当てる従来の改良法と異なり、各トレーニングサンプルからフェアネスと予測実用性に関する影響を詳細にモデル化し、フェアネスと実用性の両方の制約の影響に基づいて個々の重みを計算する。
実験の結果, 従来手法では, 実用性に乏しいコストで公平性を達成できたが, 重要な利点として, 実証的にトレードオフを解放し, コストフリーな公平性を得ることができた。
複数の表型データセットのベースラインメソッドと比較して,バニラ分類器と標準訓練プロセスによるコストフリーフェアネスを異なるフェアネス概念で示す。
関連論文リスト
- Alpha and Prejudice: Improving $α$-sized Worst-case Fairness via Intrinsic Reweighting [34.954141077528334]
既成人口集団との最悪のフェアネスは、最悪の集団のモデルユーティリティを最大化することで、同等性を達成する。
近年の進歩は、最小分割比の低い境界を導入することで、この学習問題を再構築している。
論文 参考訳(メタデータ) (2024-11-05T13:04:05Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Fair Infinitesimal Jackknife: Mitigating the Influence of Biased
Training Data Points Without Refitting [41.96570350954332]
本稿では、慎重に選択されたトレーニングデータポイントをドロップするだけで、事前学習した分類器の公平性を向上するアルゴリズムを提案する。
このような介入はモデルの予測性能を大幅に低下させるものではないが、公正度基準を大幅に改善する。
論文 参考訳(メタデータ) (2022-12-13T18:36:19Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。