論文の概要: Explainability of Traditional and Deep Learning Models on Longitudinal
Healthcare Records
- arxiv url: http://arxiv.org/abs/2211.12002v1
- Date: Tue, 22 Nov 2022 04:39:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:49:25.217227
- Title: Explainability of Traditional and Deep Learning Models on Longitudinal
Healthcare Records
- Title(参考訳): 縦断医療記録に基づく伝統的・深層学習モデルの説明可能性
- Authors: Lin Lee Cheong (1), Tesfagabir Meharizghi (1), Wynona Black (2), Yang
Guang (1) and Weilin Meng (2) ((1) Amazon ML Solutions Lab, (2) Merck & Co.,
Inc)
- Abstract要約: モデルと様々な説明可能性法の比較は十分に研究されていないため、説明可能性の厳密な評価は欠落することが多い。
我々の研究は、伝統的(XGBoost)と深層学習(LSTM with Attention)のモデル間の、グローバルおよび個人レベルの説明可能性のパフォーマンスを初めて評価した1つです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in deep learning have led to interest in training deep
learning models on longitudinal healthcare records to predict a range of
medical events, with models demonstrating high predictive performance.
Predictive performance is necessary but insufficient, however, with
explanations and reasoning from models required to convince clinicians for
sustained use. Rigorous evaluation of explainability is often missing, as
comparisons between models (traditional versus deep) and various explainability
methods have not been well-studied. Furthermore, ground truths needed to
evaluate explainability can be highly subjective depending on the clinician's
perspective. Our work is one of the first to evaluate explainability
performance between and within traditional (XGBoost) and deep learning (LSTM
with Attention) models on both a global and individual per-prediction level on
longitudinal healthcare data. We compared explainability using three popular
methods: 1) SHapley Additive exPlanations (SHAP), 2) Layer-Wise Relevance
Propagation (LRP), and 3) Attention. These implementations were applied on
synthetically generated datasets with designed ground-truths and a real-world
medicare claims dataset. We showed that overall, LSTMs with SHAP or LRP
provides superior explainability compared to XGBoost on both the global and
local level, while LSTM with dot-product attention failed to produce reasonable
ones. With the explosion of the volume of healthcare data and deep learning
progress, the need to evaluate explainability will be pivotal towards
successful adoption of deep learning models in healthcare settings.
- Abstract(参考訳): 近年の深層学習の進歩は、様々な医療イベントを予測するために、長期医療記録における深層学習モデルのトレーニングに関心を向けている。
しかし、予測性能は必要だが不十分であり、持続的な使用を臨床医に納得させるために必要なモデルの説明と推論が必要とされる。
モデル(伝統的と深い)と様々な説明可能性法の比較は十分に研究されていないため、説明可能性の厳密な評価が欠落することが多い。
さらに, 説明可能性を評価する上で必要となる根拠真理は, 臨床医の視点にもよる。
我々の研究は、縦型医療データにおいて、グローバルおよび個人ごとの予測レベルにおいて、従来の(XGBoost)モデルと深層学習(LSTM with Attention)モデル間の説明可能性性能を初めて評価した1つである。
3つの一般的な方法を用いて説明可能性を比較した。
1)シェープリー加法説明(shap)
2)層間相関伝播(lrp)、及び
3)注意。
これらの実装は、デザインされた地上構造と現実世界の医療クレームデータセットを備えた合成データセットに適用された。
総じて, SHAPまたはLPPを用いたLSTMは, XGBoostと比較して, グローバルレベルとローカルレベルの両方において優れた説明性を示し, 点積注意によるLSTMは合理的な説明が得られなかった。
医療データ量の急増と深層学習の進展により、医療環境における深層学習モデルの導入を成功させる上で、説明可能性を評価する必要性が重要である。
関連論文リスト
- Continual Learning with Pre-Trained Models: A Survey [66.49084129482239]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - Interpretable Medical Image Classification using Prototype Learning and
Privileged Information [0.0]
解釈可能性はしばしば医療画像に必須の要件である。
本研究では,学習プロセスで利用可能な追加情報を用いて,理解しやすく強力なモデルを構築することができるかを検討する。
本稿では,カプセルネットワーク,プロトタイプ学習,特権情報の利用といったメリットを活用する,Proto-Capsと呼ばれる革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-24T11:28:59Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Can Attention Be Used to Explain EHR-Based Mortality Prediction Tasks: A
Case Study on Hemorrhagic Stroke [33.08002675910282]
ストロークは死亡率と致死性の重大な原因であり、リスクを最小限に抑えるために早期予測戦略を必要とする。
従来の患者評価法は、精度と解釈可能性に制限がある。
本稿では,早期脳卒中死亡予測のための,解釈可能な注意に基づく変圧器モデルを提案する。
論文 参考訳(メタデータ) (2023-08-04T04:28:07Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - No Pairs Left Behind: Improving Metric Learning with Regularized Triplet
Objective [19.32706951298244]
サンプルマイニングやオーバーヘッドコストを伴わずにメートル法学習を改善する三重項目的関数の新たな定式化を提案する。
提案手法は,従来の3重項対象の定式化によって改善されていることを示す。
論文 参考訳(メタデータ) (2022-10-18T00:56:01Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z) - IA-GCN: Interpretable Attention based Graph Convolutional Network for
Disease prediction [47.999621481852266]
タスクに対する入力特徴の臨床的関連性を解釈する,解釈可能なグラフ学習モデルを提案する。
臨床シナリオでは、そのようなモデルは、臨床専門家が診断および治療計画のためのより良い意思決定を支援することができる。
本研究では,Tadpoleの平均精度が3.2%,UKBBジェンダーが1.6%,UKBB年齢予測タスクが2%と,比較方法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-29T13:04:02Z) - Explaining Deep Learning Models for Structured Data using Layer-Wise
Relevance Propagation [0.0]
LRP(Layer-wise Relevance)は、コンピュータビジョンにおける深層モデルのための確立された説明可能性技術であり、入力画像の直感的な可読熱マップを提供する。
本稿では,LIME(Local Interpretable Model-Agnostic Ex-planations)とSHAP(Shapley Additive Explanations)の従来の説明可能性概念よりも,LRPが有効であることを示す。
論文 参考訳(メタデータ) (2020-11-26T18:34:21Z) - Enhancing the Interpretability of Deep Models in Heathcare Through
Attention: Application to Glucose Forecasting for Diabetic People [4.692400531340393]
我々は,タイプ2 IDIABとタイプ1 OhioT1DMデータセットのRETAINモデルを評価する。
我々は、RETAINモデルが精度と解釈可能性の間に非常に良い妥協をもたらすことを示した。
論文 参考訳(メタデータ) (2020-09-08T13:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。