論文の概要: Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction
- arxiv url: http://arxiv.org/abs/2006.13811v2
- Date: Thu, 9 Jul 2020 10:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 10:16:11.076517
- Title: Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction
- Title(参考訳): 心臓再同期治療反応予測のための解釈可能な深部モデル
- Authors: Esther Puyol-Ant\'on, Chen Chen, James R. Clough, Bram Ruijsink,
Baldeep S. Sidhu, Justin Gould, Bradley Porter, Mark Elliott, Vishal Mehta,
Daniel Rueckert, Christopher A. Rinaldi, and Andrew P. King
- Abstract要約: 可変オートエンコーダ(VAE)に基づく画像分類のための新しいフレームワークを提案する。
VAEは、既存の臨床知識から引き出された説明に基づいて潜伏空間を解体する。
心臓磁気共鳴画像による心臓再同期療法(CRT)に対する心筋症の反応予測の枠組みを実証した。
- 参考スコア(独自算出の注目度): 8.152884957975354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in deep learning (DL) have resulted in impressive accuracy in some
medical image classification tasks, but often deep models lack
interpretability. The ability of these models to explain their decisions is
important for fostering clinical trust and facilitating clinical translation.
Furthermore, for many problems in medicine there is a wealth of existing
clinical knowledge to draw upon, which may be useful in generating
explanations, but it is not obvious how this knowledge can be encoded into DL
models - most models are learnt either from scratch or using transfer learning
from a different domain. In this paper we address both of these issues. We
propose a novel DL framework for image-based classification based on a
variational autoencoder (VAE). The framework allows prediction of the output of
interest from the latent space of the autoencoder, as well as visualisation (in
the image domain) of the effects of crossing the decision boundary, thus
enhancing the interpretability of the classifier. Our key contribution is that
the VAE disentangles the latent space based on `explanations' drawn from
existing clinical knowledge. The framework can predict outputs as well as
explanations for these outputs, and also raises the possibility of discovering
new biomarkers that are separate (or disentangled) from the existing knowledge.
We demonstrate our framework on the problem of predicting response of patients
with cardiomyopathy to cardiac resynchronization therapy (CRT) from cine
cardiac magnetic resonance images. The sensitivity and specificity of the
proposed model on the task of CRT response prediction are 88.43% and 84.39%
respectively, and we showcase the potential of our model in enhancing
understanding of the factors contributing to CRT response.
- Abstract(参考訳): 深層学習(DL)の進歩は、いくつかの医学画像分類タスクにおいて顕著な精度をもたらすが、深層モデルには解釈性がないことが多い。
これらのモデルが彼らの決定を説明する能力は、臨床信頼の促進と臨床翻訳の促進に重要である。
さらに、医学における多くの問題に対して、既存の臨床知識が豊富に存在するため、説明書を作成するのに有用であるが、この知識がDLモデルにどのようにエンコードできるかは明らかではない。
本稿ではこれら2つの問題に対処する。
本稿では,可変オートエンコーダ(VAE)に基づく画像分類のための新しいDLフレームワークを提案する。
このフレームワークは、オートエンコーダの潜伏空間からの利子出力の予測と、決定境界を越える効果の可視化(画像領域における)を可能にし、分類器の解釈可能性を高める。
我々の重要な貢献は、VAEが既存の臨床知識から引き出された「説明」に基づいて潜伏空間を混乱させることである。
このフレームワークは、アウトプットを予測できるだけでなく、これらのアウトプットの説明もできる。また、既存の知識から分離(あるいは分離)された新しいバイオマーカーを発見する可能性も高めている。
そこで本研究では,心磁気共鳴画像からの心臓再同期療法(crt)に対する心筋症患者の反応予測に関する枠組みを実証する。
CRT応答予測の課題における提案モデルの感度と特異性はそれぞれ88.43%と84.39%であり,CRT応答に寄与する要因の理解を深める上での本モデルの可能性を示す。
関連論文リスト
- Counterfactual Explanations for Medical Image Classification and Regression using Diffusion Autoencoder [38.81441978142279]
生成モデルの潜在空間を直接操作する新しい手法,特に拡散オートエンコーダ(DAE)を提案する。
このアプローチは、対実的説明(CE)の生成を可能にすることによって、固有の解釈可能性を提供する
これらの潜在表現は、脊椎圧迫骨折(VCF)や糖尿病網膜症(DR)などの病態の医学的分類と経時的回帰に有用であることを示す。
論文 参考訳(メタデータ) (2024-08-02T21:01:30Z) - Attribute Regularized Soft Introspective Variational Autoencoder for
Interpretable Cardiac Disease Classification [2.4828003234992666]
臨床医が人工知能モデルの理解と信頼を確実にするためには、解釈可能性が不可欠である。
本稿では,逆向きに訓練された変分オートエンコーダのフレームワーク内で,潜在空間の属性正規化を組み合わす新しい解釈可能な手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:20:57Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - On Interpretability of Deep Learning based Skin Lesion Classifiers using
Concept Activation Vectors [6.188009802619095]
メラノーマ, メラノーマ, セボリックケラトーシスの3種類の皮膚腫瘍の分類には, 十分に訓練された高性能ニューラルネットワークを用いている。
概念活性化ベクトル(CAV)の助けを借りて、人間の理解可能な概念をRECOD画像分類モデルにマッピングする
論文 参考訳(メタデータ) (2020-05-05T08:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。