論文の概要: Assessing Social Determinants-Related Performance Bias of Machine
Learning Models: A case of Hyperchloremia Prediction in ICU Population
- arxiv url: http://arxiv.org/abs/2111.09507v1
- Date: Thu, 18 Nov 2021 03:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 22:40:46.507339
- Title: Assessing Social Determinants-Related Performance Bias of Machine
Learning Models: A case of Hyperchloremia Prediction in ICU Population
- Title(参考訳): 機械学習モデルにおける社会的要因関連性能バイアスの評価:ICU集団における高塩素血症予測の事例
- Authors: Songzi Liu, Yuan Luo
- Abstract要約: 高塩素血症を予測するために構築された4つの分類器について検討した。
実験室をベースとした機能に加え, 社会的決定因子の付加は, 全患者のモデル性能を向上することがわかった。
我々は将来の研究者に、潜在的なバイアスを積極的に調整し、サブグループレポートを含むモデルを設計するよう促す。
- 参考スコア(独自算出の注目度): 6.8473641147443995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning in medicine leverages the wealth of healthcare data to
extract knowledge, facilitate clinical decision-making, and ultimately improve
care delivery. However, ML models trained on datasets that lack demographic
diversity could yield suboptimal performance when applied to the
underrepresented populations (e.g. ethnic minorities, lower social-economic
status), thus perpetuating health disparity. In this study, we evaluated four
classifiers built to predict Hyperchloremia - a condition that often results
from aggressive fluids administration in the ICU population - and compared
their performance in racial, gender, and insurance subgroups. We observed that
adding social determinants features in addition to the lab-based ones improved
model performance on all patients. The subgroup testing yielded significantly
different AUC scores in 40 out of the 44 model-subgroup, suggesting disparities
when applying ML models to social determinants subgroups. We urge future
researchers to design models that proactively adjust for potential biases and
include subgroup reporting in their studies.
- Abstract(参考訳): 医学における機械学習は、豊富な医療データを活用して知識を抽出し、臨床的意思決定を促進し、最終的にはケアデリバリーを改善する。
しかし、人口の多様性に欠けるデータセットに基づいて訓練されたMLモデルは、少数民族(例えば少数民族、社会的経済的地位の低下)に適用された場合、最適以下のパフォーマンスをもたらす可能性がある。
本研究は,ICU集団におけるアグレッシブ流体投与による高塩素血症を予測するために構築された4つの分類器について評価し,人種,性別,保険サブグループの成績を比較した。
実験結果から,すべての患者に社会的決定要因を加えることで,モデル性能が向上した。
サブグループテストでは、44のモデルサブグループのうち40のAUCスコアが有意に異なっており、MLモデルを社会決定群に適用する場合の相違が示唆された。
将来の研究者は、潜在的なバイアスを積極的に調整し、研究にサブグループレポートを含めるモデルを設計するよう促す。
関連論文リスト
- Using Backbone Foundation Model for Evaluating Fairness in Chest Radiography Without Demographic Data [2.7436483977171333]
本研究の目的は,基礎モデルのバックボーンを埋め込み抽出器として用いることの有効性を検討することである。
我々は,これらのグループを,前処理,内処理,評価など,様々な段階のバイアス軽減に活用することを提案する。
論文 参考訳(メタデータ) (2024-08-28T20:35:38Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Evaluating the Fairness of the MIMIC-IV Dataset and a Baseline
Algorithm: Application to the ICU Length of Stay Prediction [65.268245109828]
本稿では、MIMIC-IVデータセットを用いて、滞在時間を予測するXGBoostバイナリ分類モデルにおける公平性とバイアスについて検討する。
この研究は、人口統計属性にわたるデータセットのクラス不均衡を明らかにし、データ前処理と特徴抽出を採用する。
この論文は、偏見を緩和するための公正な機械学習技術と、医療専門家とデータサイエンティストの協力的な努力の必要性について結論付けている。
論文 参考訳(メタデータ) (2023-12-31T16:01:48Z) - Adapting Machine Learning Diagnostic Models to New Populations Using a Small Amount of Data: Results from Clinical Neuroscience [21.420302408947194]
我々は、ソースグループからのデータを最適に組み合わせ、ターゲットグループで予測する、重み付き経験的リスク最小化手法を開発した。
本研究では,アルツハイマー病の診断と脳年齢推定のためのMLモデルを構築するため,20の神経画像研究から15,363人のマルチソースデータに適用した。
論文 参考訳(メタデータ) (2023-08-06T18:05:39Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - Auditing ICU Readmission Rates in an Clinical Database: An Analysis of
Risk Factors and Clinical Outcomes [0.0]
本研究では,30日間の読解問題における臨床データ分類のための機械学習パイプラインを提案する。
公正監査は、平等機会、予測パリティ、偽陽性率パリティ、偽陰性率パリティ基準の格差を明らかにする。
この研究は、人工知能(AI)システムのバイアスと公平性に対処するために、研究者、政策立案者、実践者の協力的努力の必要性を示唆している。
論文 参考訳(メタデータ) (2023-04-12T17:09:38Z) - Auditing Algorithmic Fairness in Machine Learning for Health with
Severity-Based LOGAN [70.76142503046782]
臨床予測タスクにおいて,局所バイアスを自動検出するSLOGANを用いて,機械学習ベースの医療ツールを補足することを提案する。
LOGANは、患者の重症度と過去の医療史における集団バイアス検出を文脈化することにより、既存のツールであるLOcal Group biAs detectioNに適応する。
SLOGANは, クラスタリング品質を維持しながら, 患者群の75%以上において, SLOGANよりも高い公平性を示す。
論文 参考訳(メタデータ) (2022-11-16T08:04:12Z) - Avoiding Biased Clinical Machine Learning Model Performance Estimates in
the Presence of Label Selection [3.3944964838781093]
ラベル選択の3つのクラスを記述し、5つの因果的シナリオをシミュレートし、特定の選択メカニズムが、一般的に報告されているバイナリ機械学習モデルパフォーマンス指標の組に偏っているかを評価する。
その結果, 観測個体群におけるAUROCの有意な推定値が, 実成績を最大20%下回っていることがわかった。
このような格差は、成功した臨床意思決定支援ツールの誤った終了につながるのに十分大きな可能性がある。
論文 参考訳(メタデータ) (2022-09-15T22:30:14Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Predictive Modeling of ICU Healthcare-Associated Infections from
Imbalanced Data. Using Ensembles and a Clustering-Based Undersampling
Approach [55.41644538483948]
本研究は,集中治療室における危険因子の同定と医療関連感染症の予測に焦点をあてる。
感染発生率の低減に向けた意思決定を支援することを目的とする。
論文 参考訳(メタデータ) (2020-05-07T16:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。