論文の概要: Learn-Explain-Reinforce: Counterfactual Reasoning and Its Guidance to
Reinforce an Alzheimer's Disease Diagnosis Model
- arxiv url: http://arxiv.org/abs/2108.09451v1
- Date: Sat, 21 Aug 2021 07:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 16:04:33.620218
- Title: Learn-Explain-Reinforce: Counterfactual Reasoning and Its Guidance to
Reinforce an Alzheimer's Disease Diagnosis Model
- Title(参考訳): learn-explain-reinforce: counterfactual reasoningとアルツハイマー病診断モデル強化のための指導
- Authors: Kwanseok Oh, Jee Seok Yoon, and Heung-Il Suk
- Abstract要約: 本稿では、診断モデル学習、視覚的説明生成、訓練された診断モデル強化を統一する新しいフレームワークを提案する。
視覚的説明のために,対象ラベルとして識別される入力サンプルを変換する反ファクトマップを生成する。
- 参考スコア(独自算出の注目度): 1.6287500717172143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing studies on disease diagnostic models focus either on diagnostic
model learning for performance improvement or on the visual explanation of a
trained diagnostic model. We propose a novel learn-explain-reinforce (LEAR)
framework that unifies diagnostic model learning, visual explanation generation
(explanation unit), and trained diagnostic model reinforcement (reinforcement
unit) guided by the visual explanation. For the visual explanation, we generate
a counterfactual map that transforms an input sample to be identified as an
intended target label. For example, a counterfactual map can localize
hypothetical abnormalities within a normal brain image that may cause it to be
diagnosed with Alzheimer's disease (AD). We believe that the generated
counterfactual maps represent data-driven and model-induced knowledge about a
target task, i.e., AD diagnosis using structural MRI, which can be a vital
source of information to reinforce the generalization of the trained diagnostic
model. To this end, we devise an attention-based feature refinement module with
the guidance of the counterfactual maps. The explanation and reinforcement
units are reciprocal and can be operated iteratively. Our proposed approach was
validated via qualitative and quantitative analysis on the ADNI dataset. Its
comprehensibility and fidelity were demonstrated through ablation studies and
comparisons with existing methods.
- Abstract(参考訳): 既存の疾患診断モデルの研究は、パフォーマンス改善のための診断モデル学習や、訓練された診断モデルの視覚的説明に焦点を当てている。
本稿では、診断モデル学習、視覚的説明生成(説明単位)、視覚的説明によって導かれる訓練された診断モデル強化(強化単位)を統一する新しい学習説明強化(LEAR)フレームワークを提案する。
視覚的説明のために、入力サンプルを目的のターゲットラベルとして識別するために変換する反ファクトマップを生成する。
例えば、カウンターファクトマップは、通常の脳画像内で仮説上の異常を局在させ、アルツハイマー病(AD)と診断される可能性がある。
我々は,対象課題に関するデータ駆動型およびモデル駆動型知識,すなわち構造的MRIを用いたAD診断が,訓練された診断モデルの一般化を強化する上で重要な情報源であると考えている。
この目的のために,反事実マップの指導により注意に基づく特徴リファインメントモジュールを考案する。
説明と補強は相互に行われ、反復的に操作できる。
提案手法はadniデータセットの質的・定量的解析により検証された。
その理解性と忠実さはアブレーション研究と既存手法との比較によって実証された。
関連論文リスト
- Explainable AI for Autism Diagnosis: Identifying Critical Brain Regions Using fMRI Data [0.29687381456163997]
自閉症スペクトラム障害(ASD)の早期診断と介入は、自閉症者の生活の質を著しく向上させることが示されている。
ASDの客観的バイオマーカーは診断精度の向上に役立つ。
深層学習(DL)は,医療画像データから疾患や病態を診断する上で,優れた成果を上げている。
本研究の目的は, ASD の精度と解釈性を向上させることであり, ASD を正確に分類できるだけでなく,その動作に関する説明可能な洞察を提供する DL モデルを作成することである。
論文 参考訳(メタデータ) (2024-09-19T23:08:09Z) - A Quantitative Approach for Evaluating Disease Focus and Interpretability of Deep Learning Models for Alzheimer's Disease Classification [17.549219224802]
深層学習(DL)モデルはアルツハイマー病(AD)分類において有意な可能性を示している。
我々は,DLモデルの解釈可能性を高めるために,定量的な病因抽出戦略を開発した。
疾患関連領域に注目する能力の観点から,これらのモデルを評価した。
論文 参考訳(メタデータ) (2024-09-07T19:16:40Z) - A Survey of Models for Cognitive Diagnosis: New Developments and Future Directions [66.40362209055023]
本研究の目的は,認知診断の現在のモデルについて,機械学習を用いた新たな展開に注目した調査を行うことである。
モデル構造,パラメータ推定アルゴリズム,モデル評価方法,適用例を比較して,認知診断モデルの最近の傾向を概観する。
論文 参考訳(メタデータ) (2024-07-07T18:02:00Z) - Towards the Identifiability and Explainability for Personalized Learner
Modeling: An Inductive Paradigm [36.60917255464867]
本稿では,エンコーダ・デコーダモデルにインスパイアされた新しい応答効率応答パラダイムに基づく,識別可能な認知診断フレームワークを提案する。
診断精度を損なうことなく,ID-CDFが効果的に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-09-01T07:18:02Z) - Deep Reinforcement Learning Framework for Thoracic Diseases
Classification via Prior Knowledge Guidance [49.87607548975686]
関連疾患に対するラベル付きデータの不足は、正確な診断にとって大きな課題となる。
本稿では,診断エージェントの学習を指導するための事前知識を導入する,新しい深層強化学習フレームワークを提案する。
提案手法の性能はNIHX-ray 14とCheXpertデータセットを用いて実証した。
論文 参考訳(メタデータ) (2023-06-02T01:46:31Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - XADLiME: eXplainable Alzheimer's Disease Likelihood Map Estimation via
Clinically-guided Prototype Learning [3.286378299443229]
3次元sMRI上でのAD進行モデリングのためのXADLiMEを用いた新しい深層学習手法を提案する。
具体的には,ADスペクトル多様体を探索し,潜在臨床特徴のクラスタ上にトポロジカル・アウェア・プロトタイプのセットを構築した。
次に,潜在臨床特徴と確立されたプロトタイプとの類似性を測定し,擬似可能性マップを推定した。
論文 参考訳(メタデータ) (2022-07-27T00:25:55Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Interpretation of Brain Morphology in Association to Alzheimer's Disease
Dementia Classification Using Graph Convolutional Networks on Triangulated
Meshes [6.088308871328403]
本研究では,脳皮質下構造のメッシュ表現を用いたアルツハイマー病認知症(ADD)の分類を支援するメッシュベースの手法を提案する。
我々は、ADD対健全な制御問題に対して96.35%のテスト精度で、他の機械学習手法よりも優れています。
論文 参考訳(メタデータ) (2020-08-14T01:10:39Z) - Dynamic Graph Correlation Learning for Disease Diagnosis with Incomplete
Labels [66.57101219176275]
胸部X線画像上の疾患診断は,多ラベル分類の課題である。
本稿では,異なる疾患間の相互依存を調査する新たな視点を提示する病的診断グラフ畳み込みネットワーク(DD-GCN)を提案する。
本手法は,相関学習のための動的隣接行列を用いた特徴写像上のグラフを初めて構築する手法である。
論文 参考訳(メタデータ) (2020-02-26T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。