論文の概要: Deployment of a Robust and Explainable Mortality Prediction Model: The
COVID-19 Pandemic and Beyond
- arxiv url: http://arxiv.org/abs/2311.17133v1
- Date: Tue, 28 Nov 2023 18:15:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 23:39:10.008103
- Title: Deployment of a Robust and Explainable Mortality Prediction Model: The
COVID-19 Pandemic and Beyond
- Title(参考訳): ロバストで説明可能な死亡予測モデルの展開:COVID-19パンデミックとそれ以上
- Authors: Jacob R. Epifano, Stephen Glass, Ravi P. Ramachandran, Sharad Patel,
Aaron J. Masino, Ghulam Rasool
- Abstract要約: 本研究では、新型コロナウイルスのパンデミック以降の死亡率予測におけるAIモデルの有効性、説明可能性、堅牢性について検討した。
- 参考スコア(独自算出の注目度): 0.59374762912328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigated the performance, explainability, and robustness of
deployed artificial intelligence (AI) models in predicting mortality during the
COVID-19 pandemic and beyond. The first study of its kind, we found that
Bayesian Neural Networks (BNNs) and intelligent training techniques allowed our
models to maintain performance amidst significant data shifts. Our results
emphasize the importance of developing robust AI models capable of matching or
surpassing clinician predictions, even under challenging conditions. Our
exploration of model explainability revealed that stochastic models generate
more diverse and personalized explanations thereby highlighting the need for AI
models that provide detailed and individualized insights in real-world clinical
settings. Furthermore, we underscored the importance of quantifying uncertainty
in AI models which enables clinicians to make better-informed decisions based
on reliable predictions. Our study advocates for prioritizing implementation
science in AI research for healthcare and ensuring that AI solutions are
practical, beneficial, and sustainable in real-world clinical environments. By
addressing unique challenges and complexities in healthcare settings,
researchers can develop AI models that effectively improve clinical practice
and patient outcomes.
- Abstract(参考訳): 本研究では、新型コロナウイルスのパンデミック以降の死亡率予測におけるAIモデルの有効性、説明可能性、堅牢性について検討した。
このタイプの最初の研究で、ベイズニューラルネットワーク(BNN)とインテリジェントトレーニング技術によって、重要なデータシフトの中で、我々のモデルがパフォーマンスを維持することができることがわかった。
本研究は, 困難な状況下でも臨床予測に適合し, かつ超越することができる頑健なaiモデルを開発することの重要性を強調する。
モデル説明可能性の探索により、確率的モデルはより多様でパーソナライズされた説明を生成し、現実の臨床環境で詳細な個別化された洞察を提供するAIモデルの必要性を強調した。
さらに,AIモデルにおける不確実性の定量化の重要性を強調し,信頼性の高い予測に基づいて,臨床医がより良いインフォームド決定を行えるようにした。
我々の研究は、医療のためのAI研究における実装科学の優先順位付けを提唱し、現実の臨床環境でAIソリューションが実用的で有益で持続可能であることを保証する。
医療設定における固有の課題や複雑さに対処することで、研究者は臨床実践と患者の成果を効果的に改善するAIモデルを開発することができる。
関連論文リスト
- MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Explainable AI for Malnutrition Risk Prediction from m-Health and
Clinical Data [3.093890460224435]
異種m-healthデータに基づく早期かつ説明可能な栄養失調リスク検出のための新しいAIフレームワークを提案する。
対象非依存および個人化予測を含む広範囲なモデル評価を行った。
また,グローバルモデル記述を抽出するベンチマークXAI法についても検討した。
論文 参考訳(メタデータ) (2023-05-31T08:07:35Z) - GENIE-NF-AI: Identifying Neurofibromatosis Tumors using Liquid Neural
Network (LTC) trained on AACR GENIE Datasets [0.0]
神経線維腫症を診断するための解釈可能なAIアプローチを提案する。
提案手法は99.86%の精度で既存モデルより優れていた。
論文 参考訳(メタデータ) (2023-04-26T10:28:59Z) - COVID-Net Biochem: An Explainability-driven Framework to Building
Machine Learning Models for Predicting Survival and Kidney Injury of COVID-19
Patients from Clinical and Biochemistry Data [66.43957431843324]
我々は、機械学習モデルを構築するための汎用的で説明可能なフレームワークであるCOVID-Net Biochemを紹介する。
この枠組みを用いて、新型コロナウイルス患者の生存率と、入院中に急性腎不全を発症する可能性を予測する。
論文 参考訳(メタデータ) (2022-04-24T07:38:37Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Literature-Augmented Clinical Outcome Prediction [10.46990394710927]
EBMとAIベースの臨床モデルとのギャップを埋める技術を導入する。
集中治療(ICU)患者情報に基づいて患者固有の文献を自動的に検索するシステムを提案する。
我々のモデルは,最近の強靭なベースラインと比較して,3つの課題に対する予測精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-11-16T11:19:02Z) - Development of patients triage algorithm from nationwide COVID-19
registry data based on machine learning [1.0323063834827415]
本稿では,機械学習技術を用いた重症度評価モデルの開発過程について述べる。
モデルは基本的な患者の基本的個人データのみを必要とするため、患者は自身の重症度を判断できる。
本研究の目的は、患者が自身の重症度をチェックできる医療システムを構築し、同様の重症度を持つ他の患者の過去の治療内容に基づいて、適切な診療所への訪問を通知することである。
論文 参考訳(メタデータ) (2021-09-18T19:56:27Z) - Improvement of a Prediction Model for Heart Failure Survival through
Explainable Artificial Intelligence [0.0]
本研究は、心不全生存予測モデルの説明可能性分析と評価について述べる。
このモデルでは、最高のアンサンブルツリーアルゴリズムを選択できるデータワークフローパイプラインと、最高の機能選択テクニックが採用されている。
本論文の主な貢献は、精度-説明可能性バランスに基づいて、HF生存率の最良の予測モデルを選択するための説明可能性駆動型アプローチである。
論文 参考訳(メタデータ) (2021-08-20T09:03:26Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Neuro-symbolic Neurodegenerative Disease Modeling as Probabilistic
Programmed Deep Kernels [93.58854458951431]
本稿では、神経変性疾患のパーソナライズされた予測モデリングのための、確率的プログラムによる深層カーネル学習手法を提案する。
我々の分析は、ニューラルネットワークとシンボリック機械学習のアプローチのスペクトルを考慮する。
我々は、アルツハイマー病の予測問題について評価を行い、深層学習を超越した結果を得た。
論文 参考訳(メタデータ) (2020-09-16T15:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。