論文の概要: M$^3$Fair: Mitigating Bias in Healthcare Data through Multi-Level and
Multi-Sensitive-Attribute Reweighting Method
- arxiv url: http://arxiv.org/abs/2306.04118v1
- Date: Wed, 7 Jun 2023 03:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 16:29:00.647949
- Title: M$^3$Fair: Mitigating Bias in Healthcare Data through Multi-Level and
Multi-Sensitive-Attribute Reweighting Method
- Title(参考訳): m$^3$fair:マルチレベルおよびマルチセンシティブ属性再重み付け法による医療データのバイアス軽減
- Authors: Yinghao Zhu, Jingkun An, Enshen Zhou, Lu An, Junyi Gao, Hao Li, Haoran
Feng, Bo Hou, Wen Tang, Chengwei Pan, Liantao Ma
- Abstract要約: 複数のレベルにおいてRW法を複数の感度属性に拡張し,マルチレベルかつマルチセンシティブな属性再重み付け手法であるM3Fairを提案する。
実世界のデータセットに対する我々の実験は、アプローチが医療の公平性問題に対処する上で効果的で、単純で、一般化可能であることを示している。
- 参考スコア(独自算出の注目度): 13.253174531040106
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the data-driven artificial intelligence paradigm, models heavily rely on
large amounts of training data. However, factors like sampling distribution
imbalance can lead to issues of bias and unfairness in healthcare data.
Sensitive attributes, such as race, gender, age, and medical condition, are
characteristics of individuals that are commonly associated with discrimination
or bias. In healthcare AI, these attributes can play a significant role in
determining the quality of care that individuals receive. For example, minority
groups often receive fewer procedures and poorer-quality medical care than
white individuals in US. Therefore, detecting and mitigating bias in data is
crucial to enhancing health equity. Bias mitigation methods include
pre-processing, in-processing, and post-processing. Among them, Reweighting
(RW) is a widely used pre-processing method that performs well in balancing
machine learning performance and fairness performance. RW adjusts the weights
for samples within each (group, label) combination, where these weights are
utilized in loss functions. However, RW is limited to considering only a single
sensitive attribute when mitigating bias and assumes that each sensitive
attribute is equally important. This may result in potential inaccuracies when
addressing intersectional bias. To address these limitations, we propose
M3Fair, a multi-level and multi-sensitive-attribute reweighting method by
extending the RW method to multiple sensitive attributes at multiple levels.
Our experiments on real-world datasets show that the approach is effective,
straightforward, and generalizable in addressing the healthcare fairness
issues.
- Abstract(参考訳): データ駆動人工知能パラダイムでは、モデルは大量のトレーニングデータに大きく依存する。
しかし、サンプリング分布の不均衡のような要因は、医療データに偏りや不公平な問題を引き起こす可能性がある。
人種、性別、年齢、健康状態などの繊細な属性は、差別や偏見と一般的に関連する個人の特性である。
医療AIでは、これらの属性は、個人が受けるケアの質を決定する上で重要な役割を果たす。
例えば、マイノリティグループは、米国の白人よりも手順や質の低い医療を受けることが多い。
したがって、データのバイアスの検出と緩和は、健康エクイティを高める上で重要である。
バイアス軽減手法には、前処理、内処理、後処理などがある。
その中でもReweighting(RW)は、機械学習のパフォーマンスと公平性のパフォーマンスのバランスをよく行うために広く使われている前処理手法である。
rwは、これらの重みを損失関数で利用する各(グループ、ラベル)の組み合わせでサンプルの重みを調整する。
しかしながら、RWはバイアスを緩和する際、単一の感度属性のみを考慮することに制限されており、各感度属性が等しく重要であると仮定する。
これは交叉バイアスに対処する際の潜在的な不正確な結果をもたらす。
これらの制約に対処するため,複数のレベルにおいてRW法を複数の感度属性に拡張することにより,マルチレベルかつ多感度な属性再重み付け手法であるM3Fairを提案する。
実世界のデータセットに対する我々の実験は、アプローチが医療の公平性問題に対処する上で効果的で、単純で、一般化可能であることを示している。
関連論文リスト
- Evaluating Fair Feature Selection in Machine Learning for Healthcare [0.9222623206734782]
特徴選択の観点からアルゴリズム的公正性を探究する。
全人口集団に等しく重要と考えられる公平な特徴選択法を評価する。
当社のアプローチを、公開可能な3つの医療データセットでテストしました。
論文 参考訳(メタデータ) (2024-03-28T06:24:04Z) - Achieve Fairness without Demographics for Dermatological Disease
Diagnosis [17.792332189055223]
そこで本研究では,テストフェーズにおいて,そのような情報を用いることなく,感度特性の公平な予測を可能にする手法を提案する。
特徴の絡み合いが公正性に与える影響を強調した先行研究から着想を得て,重要属性や対象属性に関連する特徴を捉えることにより,モデルの特徴を高める。
これにより、機密属性に関連する機能に頼ることなく、モデルがターゲット属性に関連する機能に基づいてのみ分類できることが保証される。
論文 参考訳(メタデータ) (2024-01-16T02:49:52Z) - MCRAGE: Synthetic Healthcare Data for Fairness [3.0089659534785853]
そこで本稿では,MCRAGE (Generative Modeling) の強化による不均衡データセットの増大によるマイノリティクラス再バランスを提案する。
MCRAGEは、デノイング拡散確率モデル (Denoising Diffusion Probabilistic Model, CDDPM) を訓練し、未表現のクラスから高品質な合成EHRサンプルを生成する。
この合成データを使用して、既存の不均衡なデータセットを増大させ、その結果、すべてのクラスにまたがるよりバランスの取れた分散を実現します。
論文 参考訳(メタデータ) (2023-10-27T19:02:22Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - To Impute or not to Impute? -- Missing Data in Treatment Effect
Estimation [84.76186111434818]
我々は,MCM(Mixed Con founded missingness)と呼ばれる新しい欠損機構を同定し,ある欠損度が治療選択を判断し,他の欠損度が治療選択によって決定されることを示した。
本研究は,全てのデータを因果的に入力すると,不偏推定を行うために必要な情報を効果的に除去するので,処理効果のモデルが貧弱になることを示す。
私たちのソリューションは選択的計算であり、CMMからの洞察を使って、どの変数をインプットすべきで、どの変数をインプットすべきでないかを正確に知らせる。
論文 参考訳(メタデータ) (2022-02-04T12:08:31Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。