論文の概要: Cascaded Debiasing : Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions
- arxiv url: http://arxiv.org/abs/2202.03734v1
- Date: Tue, 8 Feb 2022 09:20:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 15:05:12.102847
- Title: Cascaded Debiasing : Studying the Cumulative Effect of Multiple
Fairness-Enhancing Interventions
- Title(参考訳): カスケード・デバイアス : 多重フェアネス・エンハンシングによる累積効果の研究
- Authors: Bhavya Ghai, Mihir Mishra, Klaus Mueller
- Abstract要約: 本稿では機械学習(ML)パイプラインの異なる段階における多重公正強化介入の累積効果について検討する。
複数の介入を適用すると、集約に対する個々の介入よりも公平性と実用性が向上する。
マイナス面として、公平性向上の介入は異なる集団、特に特権集団に悪影響を及ぼす可能性がある。
- 参考スコア(独自算出の注目度): 48.98659895355356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding the cumulative effect of multiple fairness enhancing
interventions at different stages of the machine learning (ML) pipeline is a
critical and underexplored facet of the fairness literature. Such knowledge can
be valuable to data scientists/ML practitioners in designing fair ML pipelines.
This paper takes the first step in exploring this area by undertaking an
extensive empirical study comprising 60 combinations of interventions, 9
fairness metrics, 2 utility metrics (Accuracy and F1 Score) across 4 benchmark
datasets. We quantitatively analyze the experimental data to measure the impact
of multiple interventions on fairness, utility and population groups. We found
that applying multiple interventions results in better fairness and lower
utility than individual interventions on aggregate. However, adding more
interventions do no always result in better fairness or worse utility. The
likelihood of achieving high performance (F1 Score) along with high fairness
increases with larger number of interventions. On the downside, we found that
fairness-enhancing interventions can negatively impact different population
groups, especially the privileged group. This study highlights the need for new
fairness metrics that account for the impact on different population groups
apart from just the disparity between groups. Lastly, we offer a list of
combinations of interventions that perform best for different fairness and
utility metrics to aid the design of fair ML pipelines.
- Abstract(参考訳): 機械学習(ML)パイプラインの異なる段階における複数のフェアネス強化介入の累積効果を理解することは、フェアネス文学の批判的で未発見の側面である。
このような知識は、公正なMLパイプラインの設計において、データサイエンティストやML実践者に価値があります。
本稿は,60の介入,9の公正度指標,2つのユーティリティメトリクス(精度とF1スコア)を4つのベンチマークデータセットに組み合わせて,この領域を探索する第一歩となる。
実験データを定量的に分析し,公平性,実用性,集団に対する複数介入の影響を定量的に測定した。
その結果,複数の介入を施すことで,個々の介入よりも公平性が向上し,有用性が低下することが判明した。
しかし、より多くの介入を追加することは、必ずしもより良い公平性や悪いユーティリティをもたらすとは限らない。
高いパフォーマンス(f1スコア)と高い公平性を達成する確率は、より多くの介入によって増加する。
マイナス面として,公平度向上の介入は,異なる集団,特に特権集団に悪影響を及ぼすことが判明した。
この研究は、集団間の格差だけでなく、異なる集団に対する影響を考慮に入れた新しい公平度指標の必要性を強調した。
最後に、フェアなMLパイプラインの設計を支援するために、さまざまなフェアネスとユーティリティメトリクスに最適な介入の組み合わせのリストを提供します。
関連論文リスト
- Fairpriori: Improving Biased Subgroup Discovery for Deep Neural Network Fairness [21.439820064223877]
本稿では,新しいバイアス付きサブグループ発見法であるFairprioriを紹介する。
このアルゴリズムは、交差点バイアスの効率的かつ効率的な調査を容易にするために、頻繁なアイテムセット生成アルゴリズムを組み込んでいる。
フェアプリオリは交叉バイアスを特定する際に優れた効果と効率を示す。
論文 参考訳(メタデータ) (2024-06-25T00:15:13Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Increasing Fairness via Combination with Learning Guarantees [8.314000998551865]
個人と集団の公平性の両方を反映する差別的リスクという,公正性の品質指標を提案する。
また,一階と二階のオラクル境界を提案し,理論学習保証とアンサンブルの組み合わせにより公平性を高めることができることを示した。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z) - Fair Effect Attribution in Parallel Online Experiments [57.13281584606437]
A/Bテストは、オンラインサービスで導入された変更の影響を確実に特定する目的で役立ちます。
オンラインプラットフォームでは,ユーザトラフィックをランダムに分割して多数の同時実験を行うのが一般的である。
異なるグループ間の完全なランダム化にもかかわらず、同時実験は互いに相互作用し、平均的な集団の結果に負の影響をもたらす。
論文 参考訳(メタデータ) (2022-10-15T17:15:51Z) - Fairness-aware Model-agnostic Positive and Unlabeled Learning [38.50536380390474]
フェアプル(FairPUL)という,フェアネスを意識したポジティブ・アンラベル学習手法を提案する。
2つの集団の個体を二分分類するために、同様の正の率と偽の正の率を達成することを目指している。
我々のフレームワークは、分類誤差と公正度の両方の観点から統計的に一貫性があることが証明されている。
論文 参考訳(メタデータ) (2022-06-19T08:04:23Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。