論文の概要: Fairness-enhancing mixed effects deep learning improves fairness on in-
and out-of-distribution clustered (non-iid) data
- arxiv url: http://arxiv.org/abs/2310.03146v1
- Date: Wed, 4 Oct 2023 20:18:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 20:20:16.433237
- Title: Fairness-enhancing mixed effects deep learning improves fairness on in-
and out-of-distribution clustered (non-iid) data
- Title(参考訳): 非iid(in-out-out-distribution clustered)データの公平性を改善するディープラーニング
- Authors: Adam Wang, Son Nguyen, Albert Montillo
- Abstract要約: 本稿では,複合効果深層学習(MEDL)フレームワークを提案する。
MEDLはクラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
我々は,このMEDLと逆行性脱ベンゾル(逆行性脱ベンゾル)を結婚し,公正性に敏感な変数に対するFE,RE,ME予測の対等性を推し進める。
本フレームワークは, 性別で83%, 性で86%, 婚姻統計で27%まで, 敏感な変数の公平性を著しく向上させる。
- 参考スコア(独自算出の注目度): 7.413980562174725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional deep learning (DL) suffers from two core problems. Firstly, it
assumes training samples are independent and identically distributed. However,
numerous real-world datasets group samples by shared measurements (e.g., study
participants or cells), violating this assumption. In these scenarios, DL can
show compromised performance, limited generalization, and interpretability
issues, coupled with cluster confounding causing Type 1 and 2 errors. Secondly,
models are typically trained for overall accuracy, often neglecting
underrepresented groups and introducing biases in crucial areas like loan
approvals or determining health insurance rates, such biases can significantly
impact one's quality of life. To address both of these challenges
simultaneously, we present a mixed effects deep learning (MEDL) framework. MEDL
separately quantifies cluster-invariant fixed effects (FE) and cluster-specific
random effects (RE) through the introduction of: 1) a cluster adversary which
encourages the learning of cluster-invariant FE, 2) a Bayesian neural network
which quantifies the RE, and a mixing function combining the FE an RE into a
mixed-effect prediction. We marry this MEDL with adversarial debiasing, which
promotes equality-of-odds fairness across FE, RE, and ME predictions for
fairness-sensitive variables. We evaluated our approach using three datasets:
two from census/finance focusing on income classification and one from
healthcare predicting hospitalization duration, a regression task. Our
framework notably enhances fairness across all sensitive variables-increasing
fairness up to 82% for age, 43% for race, 86% for sex, and 27% for
marital-status. Besides promoting fairness, our method maintains the robust
performance and clarity of MEDL. It's versatile, suitable for various dataset
types and tasks, making it broadly applicable. Our GitHub repository houses the
implementation.
- Abstract(参考訳): 従来のディープラーニング(DL)は2つの問題に悩まされている。
まず、トレーニングサンプルは独立して分散していると仮定します。
しかし、多くの実世界のデータセットが共有測定(研究参加者や細胞など)によってサンプルをグループ化し、この仮定に違反している。
これらのシナリオでは、DLは妥協されたパフォーマンス、限定された一般化、解釈可能性の問題を示し、クラスタの混在がType 1と2のエラーを引き起こします。
第二に、モデルは通常、全体的な正確性のために訓練され、しばしば過小評価されたグループを無視し、ローン承認や健康保険率の決定といった重要な分野にバイアスを導入する。
両課題を同時に解決するために,複合効果深層学習(MEDL)フレームワークを提案する。
MEDLは、以下を導入することで、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を別々に定量化する。
1)クラスタ不変FEの学習を促進するクラスタ敵
2)reを定量化するベイズニューラルネットワークと、feとreを混合した混合関数とを混合効果予測に変換する。
我々は,このMEDLと逆行性脱ベンゾル(逆行性脱ベンゾル)を結婚し,公正性に敏感な変数に対するFE,RE,ME予測の対等性を推し進める。
調査対象は収入分類に焦点をあてた国勢調査/ファイナンスと入院期間を予測した医療と回帰課題の3つであった。
本フレームワークは, 性別で83%, 性で86%, 婚姻統計で27%まで, 敏感な変数の公平性を著しく向上させる。
フェアネスの促進に加えて,本手法はMEDLの頑健な性能と明快さを維持している。
汎用性があり、さまざまなデータセットタイプやタスクに適しているため、広く適用可能です。
当社のGitHubリポジトリには実装があります。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Towards Multi-Objective Statistically Fair Federated Learning [1.2687030176231846]
フェデレートラーニング(FL)は、データの所有権とプライバシーに関する懸念の結果生まれた。
本稿では,様々な統計的公正度指標を含む複数の目的を満足できる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-24T19:22:01Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。