論文の概要: Mitigating Health Disparities in EHR via Deconfounder
- arxiv url: http://arxiv.org/abs/2210.15901v1
- Date: Fri, 28 Oct 2022 05:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 17:27:31.591977
- Title: Mitigating Health Disparities in EHR via Deconfounder
- Title(参考訳): Deconfounder による EHR の健康格差の緩和
- Authors: Zheng Liu, Xiaohan Li and Philip Yu
- Abstract要約: 我々は、医療データセットの格差問題に対処する新しいフレームワーク、Parity Medical Deconfounder(PriMeD)を提案する。
PriMeDはCVAE(Conditional Variational Autoencoder)を採用して、観測データに対する潜伏要因(代替共同設立者)を学習する。
- 参考スコア(独自算出の注目度): 5.511343163506091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Health disparities, or inequalities between different patient demographics,
are becoming crucial in medical decision-making, especially in Electronic
Health Record (EHR) predictive modeling. To ensure the fairness of sensitive
attributes, conventional studies mainly adopt calibration or re-weighting
methods to balance the performance on among different demographic groups.
However, we argue that these methods have some limitations. First, these
methods usually mean a trade-off between the model's performance and fairness.
Second, many methods completely attribute unfairness to the data collection
process, which lacks substantial evidence. In this paper, we provide an
empirical study to discover the possibility of using deconfounder to address
the disparity issue in healthcare. Our study can be summarized in two parts.
The first part is a pilot study demonstrating the exacerbation of disparity
when unobserved confounders exist. The second part proposed a novel framework,
Parity Medical Deconfounder (PriMeD), to deal with the disparity issue in
healthcare datasets. Inspired by the deconfounder theory, PriMeD adopts a
Conditional Variational Autoencoder (CVAE) to learn latent factors (substitute
confounders) for observational data, and extensive experiments are provided to
show its effectiveness.
- Abstract(参考訳): 特に電子健康記録(EHR)予測モデルでは、医療の意思決定において健康格差や、異なる患者層間の不平等が重要になっている。
センシティブな属性の公平性を確保するために、従来の研究は主に、異なる集団間でのパフォーマンスのバランスをとるために、キャリブレーションまたは再重み付け手法を採用する。
しかし,これらの手法にはいくつかの制限がある。
第一に、これらの手法は通常、モデルの性能と公平性の間のトレードオフを意味する。
第二に、多くの手法はデータ収集プロセスに不公平さを全く考慮していない。
本稿では,deconfounderを用いて医療における異質な問題に対処する可能性を見出すための実証的研究を行う。
私たちの研究は2つの部分で要約できる。
第1部は、観察されていない共同創設者が存在する場合の格差の悪化を示すパイロット研究である。
第2部では、医療データセットの格差問題に対処するため、新しいフレームワークであるParity Medical Deconfounder(PriMeD)を提案した。
退化理論に触発されたPriMeDは、観測データに潜伏因子(代替共同設立者)を学習するための条件変分オートエンコーダ(CVAE)を採用し、その有効性を示す広範な実験を提供する。
関連論文リスト
- FairEHR-CLP: Towards Fairness-Aware Clinical Predictions with Contrastive Learning in Multimodal Electronic Health Records [15.407593899656762]
本報告では,FairEHR-CLPについて述べる。
FairEHR-CLPは2段階のプロセスで動作し、患者の人口統計、縦断データ、臨床ノートを利用する。
サブグループ間での誤差率の差異を効果的に測定する新しい公正度尺度を導入する。
論文 参考訳(メタデータ) (2024-02-01T19:24:45Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - (Predictable) Performance Bias in Unsupervised Anomaly Detection [3.826262429926079]
教師なし異常検出(UAD)モデルは、疾患検出の重要な第1ステップを支援することを約束する。
本研究は, ある集団群に対して, UADモデルの異なる性能を定量的に評価した。
論文 参考訳(メタデータ) (2023-09-25T14:57:43Z) - A Counterfactual Fair Model for Longitudinal Electronic Health Records
via Deconfounder [5.198621505969445]
FLMD(Fair Longitudinal Medical Deconfounder)と呼ばれる新しいモデルを提案する。
FLMDは、縦型Electronic Health Records(EHR)モデリングにおいて、公平性と正確性の両方を達成することを目的としている。
我々は、FLMDの有効性を示すために、2つの実世界のEHRデータセットの総合的な実験を行った。
論文 参考訳(メタデータ) (2023-08-22T22:43:20Z) - Unbiased Pain Assessment through Wearables and EHR Data: Multi-attribute
Fairness Loss-based CNN Approach [3.799109312082668]
本稿では,MAFL(Multi-Atribute Fairness Loss)に基づくCNNモデルを提案する。
提案手法と既存の緩和手順を比較し, 実装されたモデルが最先端の手法と対照的に良好に機能することを明らかにする。
論文 参考訳(メタデータ) (2023-07-03T09:21:36Z) - MEDFAIR: Benchmarking Fairness for Medical Imaging [44.73351338165214]
MEDFAIRは、医療画像のための機械学習モデルの公正性をベンチマークするフレームワークである。
モデル選択基準の未検討の問題は、公正な結果に重大な影響を及ぼす可能性がある。
異なる倫理的原則を必要とするさまざまな医療応用シナリオを推奨する。
論文 参考訳(メタデータ) (2022-10-04T16:30:47Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Predictive Modeling of ICU Healthcare-Associated Infections from
Imbalanced Data. Using Ensembles and a Clustering-Based Undersampling
Approach [55.41644538483948]
本研究は,集中治療室における危険因子の同定と医療関連感染症の予測に焦点をあてる。
感染発生率の低減に向けた意思決定を支援することを目的とする。
論文 参考訳(メタデータ) (2020-05-07T16:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。