論文の概要: A Quantitatively Interpretable Model for Alzheimer's Disease Prediction
Using Deep Counterfactuals
- arxiv url: http://arxiv.org/abs/2310.03457v1
- Date: Thu, 5 Oct 2023 10:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:33:40.267144
- Title: A Quantitatively Interpretable Model for Alzheimer's Disease Prediction
Using Deep Counterfactuals
- Title(参考訳): deep counterfactuals を用いたアルツハイマー病予測のための定量的解釈モデル
- Authors: Kwanseok Oh, Da-Woon Heo, Ahmad Wisnu Mulyadi, Wonsik Jung, Eunsong
Kang, Kun Ho Lee, Heung-Il Suk
- Abstract要約: われわれのフレームワークは脳の各領域に対してAD関連指数'を生成する。
アルツハイマー病(AD)の進行に関して、個々の患者や患者グループに対する直感的な脳状態の理解を提供する。
- 参考スコア(独自算出の注目度): 9.063447605302219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) for predicting Alzheimer's disease (AD) has provided
timely intervention in disease progression yet still demands attentive
interpretability to explain how their DL models make definitive decisions.
Recently, counterfactual reasoning has gained increasing attention in medical
research because of its ability to provide a refined visual explanatory map.
However, such visual explanatory maps based on visual inspection alone are
insufficient unless we intuitively demonstrate their medical or neuroscientific
validity via quantitative features. In this study, we synthesize the
counterfactual-labeled structural MRIs using our proposed framework and
transform it into a gray matter density map to measure its volumetric changes
over the parcellated region of interest (ROI). We also devised a lightweight
linear classifier to boost the effectiveness of constructed ROIs, promoted
quantitative interpretation, and achieved comparable predictive performance to
DL methods. Throughout this, our framework produces an ``AD-relatedness index''
for each ROI and offers an intuitive understanding of brain status for an
individual patient and across patient groups with respect to AD progression.
- Abstract(参考訳): アルツハイマー病(AD)を予測するためのディープラーニング(DL)は、病気の進行にタイムリーに介入するが、DLモデルがどのように決定を下すかを説明するために注意深い解釈性を必要とする。
近年,医療研究において,洗練された視覚的説明地図を提供する能力から,反事実推論が注目されている。
しかし, 視覚検査のみに基づく視覚説明図は, 定量的特徴によって直感的にその医学的・神経科学的妥当性を示さない限り, 不十分である。
本研究では,提案する枠組みを用いて逆ラベル構造mriを合成し,それを灰色物質密度マップに変換し,関心領域(roi)における体積変化を測定した。
また,構築したroisの有効性を高め,定量的解釈を促進し,dl法に匹敵する予測性能を達成する軽量線形分類器を考案した。
これを通じて,本フレームワークは各ROIに対して「AD関連指数」を生成し,AD進行に関する患者グループ間および患者グループ間の脳状態の直感的な理解を提供する。
関連論文リスト
- Unmasking Dementia Detection by Masking Input Gradients: A JSM Approach
to Model Interpretability and Precision [1.5501208213584152]
本稿では,多段階進行に対するアルツハイマー病(AD)分類の解釈可能なマルチモーダルモデルを導入し,ヤコビアン・サリエンシ・マップ(JSM)をモダリティに依存しないツールとして組み込んだ。
アブレーション研究を含む評価では、モデルデバッグと解釈にJSMを用いることの有効性が示され、モデル精度も著しく向上した。
論文 参考訳(メタデータ) (2024-02-25T06:53:35Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Multimodal Explainability via Latent Shift applied to COVID-19
stratification [1.1129469448121927]
本稿では,モダリティの再構築とサンプル分類を共同で学習する,設計による説明が可能な深いアーキテクチャを提案する。
AIforCOVIDデータセットを使用して、COVID-19パンデミックの文脈でのアプローチを検証する。
論文 参考訳(メタデータ) (2022-12-28T20:07:43Z) - Predicting conversion of mild cognitive impairment to Alzheimer's
disease [5.1680226874942985]
我々は,日常的な解剖学的MRIから構造的脳ネットワークを生成するための,自己指導型コントラスト学習手法を開発した。
生成された脳ネットワークを用いて、MCI-AD変換を予測するための学習フレームワークを訓練する。
論文 参考訳(メタデータ) (2022-03-08T14:13:54Z) - Learn-Explain-Reinforce: Counterfactual Reasoning and Its Guidance to
Reinforce an Alzheimer's Disease Diagnosis Model [1.6287500717172143]
本稿では、診断モデル学習、視覚的説明生成、訓練された診断モデル強化を統一する新しいフレームワークを提案する。
視覚的説明のために,対象ラベルとして識別される入力サンプルを変換する反ファクトマップを生成する。
論文 参考訳(メタデータ) (2021-08-21T07:29:13Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Interpretable Deep Models for Cardiac Resynchronisation Therapy Response
Prediction [8.152884957975354]
可変オートエンコーダ(VAE)に基づく画像分類のための新しいフレームワークを提案する。
VAEは、既存の臨床知識から引き出された説明に基づいて潜伏空間を解体する。
心臓磁気共鳴画像による心臓再同期療法(CRT)に対する心筋症の反応予測の枠組みを実証した。
論文 参考訳(メタデータ) (2020-06-24T15:35:47Z) - Learning Dynamic and Personalized Comorbidity Networks from Event Data
using Deep Diffusion Processes [102.02672176520382]
コンコルビンド病は、個人によって異なる複雑な時間的パターンを通じて発生し進行する。
電子的な健康記録では、患者が持つ異なる疾患を観察できるが、それぞれの共死状態の時間的関係を推測できるだけである。
我々は「ダイナミック・コオービディティ・ネットワーク」をモデル化するための深層拡散プロセスを開発する。
論文 参考訳(メタデータ) (2020-01-08T15:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。