論文の概要: Explainability of Traditional and Deep Learning Models on Longitudinal
Healthcare Records
- arxiv url: http://arxiv.org/abs/2211.12002v1
- Date: Tue, 22 Nov 2022 04:39:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:49:25.217227
- Title: Explainability of Traditional and Deep Learning Models on Longitudinal
Healthcare Records
- Title(参考訳): 縦断医療記録に基づく伝統的・深層学習モデルの説明可能性
- Authors: Lin Lee Cheong (1), Tesfagabir Meharizghi (1), Wynona Black (2), Yang
Guang (1) and Weilin Meng (2) ((1) Amazon ML Solutions Lab, (2) Merck & Co.,
Inc)
- Abstract要約: モデルと様々な説明可能性法の比較は十分に研究されていないため、説明可能性の厳密な評価は欠落することが多い。
我々の研究は、伝統的(XGBoost)と深層学習(LSTM with Attention)のモデル間の、グローバルおよび個人レベルの説明可能性のパフォーマンスを初めて評価した1つです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in deep learning have led to interest in training deep
learning models on longitudinal healthcare records to predict a range of
medical events, with models demonstrating high predictive performance.
Predictive performance is necessary but insufficient, however, with
explanations and reasoning from models required to convince clinicians for
sustained use. Rigorous evaluation of explainability is often missing, as
comparisons between models (traditional versus deep) and various explainability
methods have not been well-studied. Furthermore, ground truths needed to
evaluate explainability can be highly subjective depending on the clinician's
perspective. Our work is one of the first to evaluate explainability
performance between and within traditional (XGBoost) and deep learning (LSTM
with Attention) models on both a global and individual per-prediction level on
longitudinal healthcare data. We compared explainability using three popular
methods: 1) SHapley Additive exPlanations (SHAP), 2) Layer-Wise Relevance
Propagation (LRP), and 3) Attention. These implementations were applied on
synthetically generated datasets with designed ground-truths and a real-world
medicare claims dataset. We showed that overall, LSTMs with SHAP or LRP
provides superior explainability compared to XGBoost on both the global and
local level, while LSTM with dot-product attention failed to produce reasonable
ones. With the explosion of the volume of healthcare data and deep learning
progress, the need to evaluate explainability will be pivotal towards
successful adoption of deep learning models in healthcare settings.
- Abstract(参考訳): 近年の深層学習の進歩は、様々な医療イベントを予測するために、長期医療記録における深層学習モデルのトレーニングに関心を向けている。
しかし、予測性能は必要だが不十分であり、持続的な使用を臨床医に納得させるために必要なモデルの説明と推論が必要とされる。
モデル(伝統的と深い)と様々な説明可能性法の比較は十分に研究されていないため、説明可能性の厳密な評価が欠落することが多い。
さらに, 説明可能性を評価する上で必要となる根拠真理は, 臨床医の視点にもよる。
我々の研究は、縦型医療データにおいて、グローバルおよび個人ごとの予測レベルにおいて、従来の(XGBoost)モデルと深層学習(LSTM with Attention)モデル間の説明可能性性能を初めて評価した1つである。
3つの一般的な方法を用いて説明可能性を比較した。
1)シェープリー加法説明(shap)
2)層間相関伝播(lrp)、及び
3)注意。
これらの実装は、デザインされた地上構造と現実世界の医療クレームデータセットを備えた合成データセットに適用された。
総じて, SHAPまたはLPPを用いたLSTMは, XGBoostと比較して, グローバルレベルとローカルレベルの両方において優れた説明性を示し, 点積注意によるLSTMは合理的な説明が得られなかった。
医療データ量の急増と深層学習の進展により、医療環境における深層学習モデルの導入を成功させる上で、説明可能性を評価する必要性が重要である。
関連論文リスト
- Towards Interpretable End-Stage Renal Disease (ESRD) Prediction: Utilizing Administrative Claims Data with Explainable AI Techniques [6.417777780911223]
本研究は,慢性腎臓病(CKD)から末期腎疾患(ESRD)への進行を予測するために,高度な機械学習とディープラーニング技術を組み合わせた管理クレームデータを活用する可能性を検討する。
我々は、ランダムフォレストやXGBoostといった従来の機械学習手法とLong Short-Term Memory(LSTM)ネットワークのようなディープラーニングアプローチを用いて、大手医療保険会社が提供した包括的10年間のデータセットを分析し、複数の観測窓の予測モデルを開発する。
以上の結果から,LSTMモデル,特に24ヶ月の観測窓を用いた場合,ESRD進行予測において優れた性能を示した。
論文 参考訳(メタデータ) (2024-09-18T16:03:57Z) - Comparative Analysis of LSTM Neural Networks and Traditional Machine Learning Models for Predicting Diabetes Patient Readmission [0.0]
本研究はDiabetes 130-US Hospitalsデータセットを用いて,各種機械学習モデルによる寛解患者の分析と予測を行う。
LightGBMは、XGBoostが首位だったのに対して、従来のモデルとしてはベストだった。
本研究は,予測医療モデリングにおいて,モデル選択,検証,解釈可能性が重要なステップであることを示す。
論文 参考訳(メタデータ) (2024-06-28T15:06:22Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Can Attention Be Used to Explain EHR-Based Mortality Prediction Tasks: A
Case Study on Hemorrhagic Stroke [33.08002675910282]
ストロークは死亡率と致死性の重大な原因であり、リスクを最小限に抑えるために早期予測戦略を必要とする。
従来の患者評価法は、精度と解釈可能性に制限がある。
本稿では,早期脳卒中死亡予測のための,解釈可能な注意に基づく変圧器モデルを提案する。
論文 参考訳(メタデータ) (2023-08-04T04:28:07Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z) - IA-GCN: Interpretable Attention based Graph Convolutional Network for
Disease prediction [47.999621481852266]
タスクに対する入力特徴の臨床的関連性を解釈する,解釈可能なグラフ学習モデルを提案する。
臨床シナリオでは、そのようなモデルは、臨床専門家が診断および治療計画のためのより良い意思決定を支援することができる。
本研究では,Tadpoleの平均精度が3.2%,UKBBジェンダーが1.6%,UKBB年齢予測タスクが2%と,比較方法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-29T13:04:02Z) - Explaining Deep Learning Models for Structured Data using Layer-Wise
Relevance Propagation [0.0]
LRP(Layer-wise Relevance)は、コンピュータビジョンにおける深層モデルのための確立された説明可能性技術であり、入力画像の直感的な可読熱マップを提供する。
本稿では,LIME(Local Interpretable Model-Agnostic Ex-planations)とSHAP(Shapley Additive Explanations)の従来の説明可能性概念よりも,LRPが有効であることを示す。
論文 参考訳(メタデータ) (2020-11-26T18:34:21Z) - Enhancing the Interpretability of Deep Models in Heathcare Through
Attention: Application to Glucose Forecasting for Diabetic People [4.692400531340393]
我々は,タイプ2 IDIABとタイプ1 OhioT1DMデータセットのRETAINモデルを評価する。
我々は、RETAINモデルが精度と解釈可能性の間に非常に良い妥協をもたらすことを示した。
論文 参考訳(メタデータ) (2020-09-08T13:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。