論文の概要: Equity in Healthcare: Analyzing Disparities in Machine Learning Predictions of Diabetic Patient Readmissions
- arxiv url: http://arxiv.org/abs/2403.19057v1
- Date: Wed, 27 Mar 2024 23:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 17:42:20.367716
- Title: Equity in Healthcare: Analyzing Disparities in Machine Learning Predictions of Diabetic Patient Readmissions
- Title(参考訳): 医療の質:糖尿病患者受給者の機械学習予測における格差の分析
- Authors: Zainab Al-Zanbouri, Gauri Sharma, Shaina Raza,
- Abstract要約: 本研究では,糖尿病患者に対して,機械学習(ML)モデルを用いて患者の入院容積を正確に予測する方法について検討した。
私たちはDeep Learning、Generalized Linear Models、Gradient Boosting Machines (GBM)、Naive Bayesといったモデルを比較しました。
GBMは84.3%のF1スコアと82.2%の精度で、人口統計学的に読み書きを正確に予測した。
- 参考スコア(独自算出の注目度): 2.321323878201932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates how machine learning (ML) models can predict hospital readmissions for diabetic patients fairly and accurately across different demographics (age, gender, race). We compared models like Deep Learning, Generalized Linear Models, Gradient Boosting Machines (GBM), and Naive Bayes. GBM stood out with an F1-score of 84.3% and accuracy of 82.2%, accurately predicting readmissions across demographics. A fairness analysis was conducted across all the models. GBM minimized disparities in predictions, achieving balanced results across genders and races. It showed low False Discovery Rates (FDR) (6-7%) and False Positive Rates (FPR) (5%) for both genders. Additionally, FDRs remained low for racial groups, such as African Americans (8%) and Asians (7%). Similarly, FPRs were consistent across age groups (4%) for both patients under 40 and those above 40, indicating its precision and ability to reduce bias. These findings emphasize the importance of choosing ML models carefully to ensure both accuracy and fairness for all patients. By showcasing effectiveness of various models with fairness metrics, this study promotes personalized medicine and the need for fair ML algorithms in healthcare. This can ultimately reduce disparities and improve outcomes for diabetic patients of all backgrounds.
- Abstract(参考訳): 本研究では,糖尿病患者(年齢,性別,人種)を対象に,機械学習モデルを用いて,糖尿病患者の入院容積を正確に正確に予測する方法について検討した。
私たちはDeep Learning、Generalized Linear Models、Gradient Boosting Machines (GBM)、Naive Bayesといったモデルを比較しました。
GBMは84.3%のF1スコアと82.2%の精度で、人口統計学的に読み書きを正確に予測した。
全モデルに対して公平性分析を行った。
GBMは予測における格差を最小限に抑え、性別や人種のバランスのとれた結果を達成する。
FDR (False Discovery Rates) は6-7%, FPR (False Positive Rates) は5%であった。
さらに、FDRはアフリカ系アメリカ人(8%)やアジア人(7%)といった人種グループでは低かった。
同様に、FPRは40歳未満と40歳以上の両方の年齢群(4%)で一致しており、その正確さとバイアスを減らす能力を示している。
これらの知見は,全患者の正確性と公平性を確保するため,MLモデルの選択を慎重に行うことの重要性を強調した。
フェアネス指標を用いた各種モデルの有効性を示すことにより、医療におけるパーソナライズされた医療と公正なMLアルゴリズムの必要性が促進される。
これにより、あらゆる背景を持つ糖尿病患者の格差を減らし、結果を改善することができる。
関連論文リスト
- Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Fairness Evolution in Continual Learning for Medical Imaging [47.52603262576663]
医用画像の分類性能に関する連続学習戦略(CL)の行動について検討した。
我々は,リプレイ,フォーッティングなし学習(LwF),LwF,Pseudo-Label戦略を評価した。
LwF と Pseudo-Label は最適な分類性能を示すが、評価に公正度の測定値を含めると、Pseudo-Label がバイアスが少ないことは明らかである。
論文 参考訳(メタデータ) (2024-04-10T09:48:52Z) - FERI: A Multitask-based Fairness Achieving Algorithm with Applications to Fair Organ Transplantation [15.481475313958219]
本研究は, 肝移植患者の移植失敗リスクの公平な予測のために, Equitable Rate of Improvement in Multitask Learning (FERI) アルゴリズムを用いてフェアネスを紹介する。
FERIは、学習率のバランスとトレーニングプロセスにおけるサブグループ支配の防止により、サブグループ損失を抑える。
論文 参考訳(メタデータ) (2023-10-20T21:14:07Z) - Fair Patient Model: Mitigating Bias in the Patient Representation
Learned from the Electronic Health Records [7.467693938220289]
提案モデルをMIMIC-IIIデータセットから34,739名の患者に適用した。
FPMは3つの公正度指標(人口格差、機会差の平等、等化確率比)でベースラインモデルを上回った。
論文 参考訳(メタデータ) (2023-06-05T18:40:35Z) - Generative models improve fairness of medical classifiers under
distribution shifts [49.10233060774818]
データから現実的な拡張を自動的に学習することは、生成モデルを用いてラベル効率の良い方法で可能であることを示す。
これらの学習の強化は、モデルをより堅牢で統計的に公平に配布できることを示した。
論文 参考訳(メタデータ) (2023-04-18T18:15:38Z) - Fairness and bias correction in machine learning for depression
prediction: results from four study populations [3.3136009643108038]
本稿では,うつ病の予測を目的とした機械学習モデルにおけるバイアスの体系的研究について述べる。
標準MLアプローチは、定期的にバイアスのある振る舞いを示す。
また、標準法と自己のポストホック法の両方による緩和技術は、不公平なバイアスのレベルを低減するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-11-10T03:53:17Z) - Deep Learning Discovery of Demographic Biomarkers in Echocardiography [0.3957768262206625]
深層学習アルゴリズムを用いて、心エコー画像から年齢、人種、性別を予測することができるかどうかを検証する。
年齢、性別、人種を予測するために、ビデオベースの畳み込みニューラルネットワークをトレーニングしました。
ディープラーニングモデルは、人種を確実に予測できず、年齢と性別を識別できることがわかった。
論文 参考訳(メタデータ) (2022-07-13T16:48:49Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - Assessing Social Determinants-Related Performance Bias of Machine
Learning Models: A case of Hyperchloremia Prediction in ICU Population [6.8473641147443995]
高塩素血症を予測するために構築された4つの分類器について検討した。
実験室をベースとした機能に加え, 社会的決定因子の付加は, 全患者のモデル性能を向上することがわかった。
我々は将来の研究者に、潜在的なバイアスを積極的に調整し、サブグループレポートを含むモデルを設計するよう促す。
論文 参考訳(メタデータ) (2021-11-18T03:58:50Z) - On the explainability of hospitalization prediction on a large COVID-19
patient dataset [45.82374977939355]
我々は、新型コロナウイルス陽性の米国の患者の大規模な(110ドル以上)コホートでの入院を予測するために、さまざまなAIモデルを開発した。
高いデータアンバランスにもかかわらず、モデルは平均精度0.96-0.98 (0.75-0.85)、リコール0.96-0.98 (0.74-0.85)、F_score097-0.98 (0.79-0.83)に達する。
論文 参考訳(メタデータ) (2021-10-28T10:23:38Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。