論文の概要: On The Impact of Machine Learning Randomness on Group Fairness
- arxiv url: http://arxiv.org/abs/2307.04138v1
- Date: Sun, 9 Jul 2023 09:36:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 15:09:51.018773
- Title: On The Impact of Machine Learning Randomness on Group Fairness
- Title(参考訳): 機械学習のランダム性がグループフェアネスに及ぼす影響について
- Authors: Prakhar Ganesh, Hongyan Chang, Martin Strobel, Reza Shokri
- Abstract要約: ニューラルネットワークのトレーニングにおけるランダム性の異なる源の群フェアネスへの影響について検討する。
グループフェアネス尺度のばらつきは、非表現群における学習過程の高ボラティリティに根ざしていることを示す。
一つのエポックに対してデータ順序を変更するだけで、モデル全体の性能に高い効率と無視可能な影響でグループレベルの精度を制御できることを示す。
- 参考スコア(独自算出の注目度): 11.747264308336012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Statistical measures for group fairness in machine learning reflect the gap
in performance of algorithms across different groups. These measures, however,
exhibit a high variance between different training instances, which makes them
unreliable for empirical evaluation of fairness. What causes this high
variance? We investigate the impact on group fairness of different sources of
randomness in training neural networks. We show that the variance in group
fairness measures is rooted in the high volatility of the learning process on
under-represented groups. Further, we recognize the dominant source of
randomness as the stochasticity of data order during training. Based on these
findings, we show how one can control group-level accuracy (i.e., model
fairness), with high efficiency and negligible impact on the model's overall
performance, by simply changing the data order for a single epoch.
- Abstract(参考訳): 機械学習におけるグループフェアネスの統計的尺度は、異なるグループにわたるアルゴリズムのパフォーマンスのギャップを反映している。
しかし、これらの尺度は異なるトレーニングインスタンス間で高いばらつきを示し、公平さの実証的評価には信頼できない。
この大きなばらつきの原因は何でしょう?
ニューラルネットワークのトレーニングにおけるランダム性の異なる源の群フェアネスへの影響について検討する。
グループフェアネス尺度のばらつきは、非表現群における学習過程の高ボラティリティに根ざしていることを示す。
さらに,学習中のデータ順序の確率性として,ランダム性の主源が認識される。
これらの結果から,グループレベルの精度(すなわちモデルフェアネス)を1つのエポックのデータ順序を変更するだけで,モデル全体の性能に高い効率と無視可能な影響で制御できることを示す。
関連論文リスト
- Fair Class-Incremental Learning using Sample Weighting [27.82760149957115]
本研究は,現在行われている課題のすべてのサンプルを鼻で使用することにより,クラスを含む特定のセンシティブなグループに対して不当な破滅的忘れを生じさせることを示す。
平均勾配ベクトルの方向を変えるために,現在のタスクサンプルのトレーニング重みを調整する,公平なクラス増分学習フレームワークを提案する。
実験により、FSWは実際のデータセットに対する最先端のアプローチよりも精度・公正なトレードオフ結果が得られることが示された。
論文 参考訳(メタデータ) (2024-10-02T08:32:21Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - On Adversarial Bias and the Robustness of Fair Machine Learning [11.584571002297217]
異なるサイズと分布の群に同じ重要性を与えることで、トレーニングデータにおけるバイアスの影響を防止できることが、ロバストネスと矛盾する可能性があることを示す。
少数のトレーニングデータのサンプリングやラベル付けを制御できる敵は、制約のないモデルで達成できる以上のテスト精度を著しく削減することができる。
我々は、複数のアルゴリズムとベンチマークデータセットに対する攻撃の実証的な評価を通じて、公正な機械学習の堅牢性を分析する。
論文 参考訳(メタデータ) (2020-06-15T18:17:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。