論文の概要: Fairness-enhancing mixed effects deep learning improves fairness on in-
and out-of-distribution clustered (non-iid) data
- arxiv url: http://arxiv.org/abs/2310.03146v1
- Date: Wed, 4 Oct 2023 20:18:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 20:20:16.433237
- Title: Fairness-enhancing mixed effects deep learning improves fairness on in-
and out-of-distribution clustered (non-iid) data
- Title(参考訳): 非iid(in-out-out-distribution clustered)データの公平性を改善するディープラーニング
- Authors: Adam Wang, Son Nguyen, Albert Montillo
- Abstract要約: 本稿では,複合効果深層学習(MEDL)フレームワークを提案する。
MEDLはクラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
我々は,このMEDLと逆行性脱ベンゾル(逆行性脱ベンゾル)を結婚し,公正性に敏感な変数に対するFE,RE,ME予測の対等性を推し進める。
本フレームワークは, 性別で83%, 性で86%, 婚姻統計で27%まで, 敏感な変数の公平性を著しく向上させる。
- 参考スコア(独自算出の注目度): 7.413980562174725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional deep learning (DL) suffers from two core problems. Firstly, it
assumes training samples are independent and identically distributed. However,
numerous real-world datasets group samples by shared measurements (e.g., study
participants or cells), violating this assumption. In these scenarios, DL can
show compromised performance, limited generalization, and interpretability
issues, coupled with cluster confounding causing Type 1 and 2 errors. Secondly,
models are typically trained for overall accuracy, often neglecting
underrepresented groups and introducing biases in crucial areas like loan
approvals or determining health insurance rates, such biases can significantly
impact one's quality of life. To address both of these challenges
simultaneously, we present a mixed effects deep learning (MEDL) framework. MEDL
separately quantifies cluster-invariant fixed effects (FE) and cluster-specific
random effects (RE) through the introduction of: 1) a cluster adversary which
encourages the learning of cluster-invariant FE, 2) a Bayesian neural network
which quantifies the RE, and a mixing function combining the FE an RE into a
mixed-effect prediction. We marry this MEDL with adversarial debiasing, which
promotes equality-of-odds fairness across FE, RE, and ME predictions for
fairness-sensitive variables. We evaluated our approach using three datasets:
two from census/finance focusing on income classification and one from
healthcare predicting hospitalization duration, a regression task. Our
framework notably enhances fairness across all sensitive variables-increasing
fairness up to 82% for age, 43% for race, 86% for sex, and 27% for
marital-status. Besides promoting fairness, our method maintains the robust
performance and clarity of MEDL. It's versatile, suitable for various dataset
types and tasks, making it broadly applicable. Our GitHub repository houses the
implementation.
- Abstract(参考訳): 従来のディープラーニング(DL)は2つの問題に悩まされている。
まず、トレーニングサンプルは独立して分散していると仮定します。
しかし、多くの実世界のデータセットが共有測定(研究参加者や細胞など)によってサンプルをグループ化し、この仮定に違反している。
これらのシナリオでは、DLは妥協されたパフォーマンス、限定された一般化、解釈可能性の問題を示し、クラスタの混在がType 1と2のエラーを引き起こします。
第二に、モデルは通常、全体的な正確性のために訓練され、しばしば過小評価されたグループを無視し、ローン承認や健康保険率の決定といった重要な分野にバイアスを導入する。
両課題を同時に解決するために,複合効果深層学習(MEDL)フレームワークを提案する。
MEDLは、以下を導入することで、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を別々に定量化する。
1)クラスタ不変FEの学習を促進するクラスタ敵
2)reを定量化するベイズニューラルネットワークと、feとreを混合した混合関数とを混合効果予測に変換する。
我々は,このMEDLと逆行性脱ベンゾル(逆行性脱ベンゾル)を結婚し,公正性に敏感な変数に対するFE,RE,ME予測の対等性を推し進める。
調査対象は収入分類に焦点をあてた国勢調査/ファイナンスと入院期間を予測した医療と回帰課題の3つであった。
本フレームワークは, 性別で83%, 性で86%, 婚姻統計で27%まで, 敏感な変数の公平性を著しく向上させる。
フェアネスの促進に加えて,本手法はMEDLの頑健な性能と明快さを維持している。
汎用性があり、さまざまなデータセットタイプやタスクに適しているため、広く適用可能です。
当社のGitHubリポジトリには実装があります。
関連論文リスト
- On The Impact of Machine Learning Randomness on Group Fairness [11.747264308336012]
ニューラルネットワークのトレーニングにおけるランダム性の異なる源の群フェアネスへの影響について検討する。
グループフェアネス尺度のばらつきは、非表現群における学習過程の高ボラティリティに根ざしていることを示す。
一つのエポックに対してデータ順序を変更するだけで、モデル全体の性能に高い効率と無視可能な影響でグループレベルの精度を制御できることを示す。
論文 参考訳(メタデータ) (2023-07-09T09:36:31Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Towards Multi-Objective Statistically Fair Federated Learning [1.2687030176231846]
フェデレートラーニング(FL)は、データの所有権とプライバシーに関する懸念の結果生まれた。
本稿では,様々な統計的公正度指標を含む複数の目的を満足できる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-24T19:22:01Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。