論文の概要: Fair Patient Model: Mitigating Bias in the Patient Representation
Learned from the Electronic Health Records
- arxiv url: http://arxiv.org/abs/2306.03179v1
- Date: Mon, 5 Jun 2023 18:40:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 18:51:32.261377
- Title: Fair Patient Model: Mitigating Bias in the Patient Representation
Learned from the Electronic Health Records
- Title(参考訳): 公正患者モデル(fair patient model) : 電子健康記録から学ぶ患者表現のバイアス緩和
- Authors: Sonish Sivarajkumar, Yufei Huang, Yanshan Wang
- Abstract要約: 提案モデルをMIMIC-IIIデータセットから34,739名の患者に適用した。
FPMは3つの公正度指標(人口格差、機会差の平等、等化確率比)でベースラインモデルを上回った。
- 参考スコア(独自算出の注目度): 7.467693938220289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: To pre-train fair and unbiased patient representations from
Electronic Health Records (EHRs) using a novel weighted loss function that
reduces bias and improves fairness in deep representation learning models.
Methods: We defined a new loss function, called weighted loss function, in
the deep representation learning model to balance the importance of different
groups of patients and features. We applied the proposed model, called Fair
Patient Model (FPM), to a sample of 34,739 patients from the MIMIC-III dataset
and learned patient representations for four clinical outcome prediction tasks.
Results: FPM outperformed the baseline models in terms of three fairness
metrics: demographic parity, equality of opportunity difference, and equalized
odds ratio. FPM also achieved comparable predictive performance with the
baselines, with an average accuracy of 0.7912. Feature analysis revealed that
FPM captured more information from clinical features than the baselines.
Conclusion: FPM is a novel method to pre-train fair and unbiased patient
representations from EHR data using a weighted loss function. The learned
representations can be used for various downstream tasks in healthcare and can
be extended to other domains where bias and fairness are important.
- Abstract(参考訳): 目的: 偏見を低減し, 深層表現学習モデルの公平性を向上する新たな重み付き損失関数を用いて, 電子健康記録(EHR)から, 公平で偏見のない患者表現を事前訓練する。
方法: 深部表現学習モデルでは, 患者と特徴の異なるグループの重要性のバランスをとるために, 重み付き損失関数と呼ばれる新たな損失関数を定義した。
提案モデルであるfair patient model (fpm) をmemmy-iiiデータセットから34,739例の患者に応用し, 4つの臨床結果予測タスクについて検討した。
結果: FPMは,3つのフェアネス指標(人口格差,機会差の平等,等化確率比)でベースラインモデルを上回った。
FPMはまた、平均精度0.7912のベースラインで同等の予測性能を達成した。
特徴分析の結果,FPMは臨床像からベースラインよりも多くの情報を得た。
結論: FPM は重み付き損失関数を用いた EHR データから, 公平で偏りのない患者表現を事前訓練するための新しい手法である。
学習された表現は、医療における様々な下流タスクに使用することができ、バイアスと公平性が重要である他の領域にも拡張できる。
関連論文リスト
- Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Machine Learning for ALSFRS-R Score Prediction: Making Sense of the Sensor Data [44.99833362998488]
筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)は、急速に進行する神経変性疾患である。
iDPP@CLEF 2024チャレンジを先導した今回の調査は,アプリから得られるセンサデータを活用することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-10T19:17:23Z) - FairEHR-CLP: Towards Fairness-Aware Clinical Predictions with Contrastive Learning in Multimodal Electronic Health Records [15.407593899656762]
本報告では,FairEHR-CLPについて述べる。
FairEHR-CLPは2段階のプロセスで動作し、患者の人口統計、縦断データ、臨床ノートを利用する。
サブグループ間での誤差率の差異を効果的に測定する新しい公正度尺度を導入する。
論文 参考訳(メタデータ) (2024-02-01T19:24:45Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - MCRAGE: Synthetic Healthcare Data for Fairness [3.0089659534785853]
そこで本稿では,MCRAGE (Generative Modeling) の強化による不均衡データセットの増大によるマイノリティクラス再バランスを提案する。
MCRAGEは、デノイング拡散確率モデル (Denoising Diffusion Probabilistic Model, CDDPM) を訓練し、未表現のクラスから高品質な合成EHRサンプルを生成する。
この合成データを使用して、既存の不均衡なデータセットを増大させ、その結果、すべてのクラスにまたがるよりバランスの取れた分散を実現します。
論文 参考訳(メタデータ) (2023-10-27T19:02:22Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - Evaluating the Fairness of Deep Learning Uncertainty Estimates in
Medical Image Analysis [3.5536769591744557]
深層学習(DL)モデルは多くの医療画像解析タスクで大きな成功を収めている。
しかし、結果として得られたモデルを実際の臨床状況に展開するには、異なるサブ集団間での堅牢性と公平性が必要である。
近年の研究では、人口統計学的サブグループにまたがるDLモデルに有意なバイアスが見られ、モデルに公平性が欠如していることが示されている。
論文 参考訳(メタデータ) (2023-03-06T16:01:30Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Hemogram Data as a Tool for Decision-making in COVID-19 Management:
Applications to Resource Scarcity Scenarios [62.997667081978825]
新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。
本研究は, 症状患者の血液検査データから得られた機械学習モデルについて述べる。
提案されたモデルでは、新型コロナウイルスqRT-PCRの結果を、高い精度、感度、特異性で症状のある個人に予測することができる。
論文 参考訳(メタデータ) (2020-05-10T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。