論文の概要: 3D MRI-Based Alzheimer's Disease Classification Using Multi-Modal 3D CNN with Leakage-Aware Subject-Level Evaluation
- arxiv url: http://arxiv.org/abs/2603.17304v1
- Date: Wed, 18 Mar 2026 03:00:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.487027
- Title: 3D MRI-Based Alzheimer's Disease Classification Using Multi-Modal 3D CNN with Leakage-Aware Subject-Level Evaluation
- Title(参考訳): マルチモーダル3次元CNNを用いた3次元MRIによるアルツハイマー病分類
- Authors: Md Sifat, Sania Akter, Akif Islam, Md. Ekramul Hamid, Abu Saleh Musa Miah, Najmul Hassan, Md Abdur Rahim, Jungpil Shin,
- Abstract要約: 深層学習は、構造MRIからアルツハイマー病を分類するための重要なツールとなっている。
本研究はアルツハイマー病分類のための多モード3D畳み込みニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 2.905651880068545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has become an important tool for Alzheimer's disease (AD) classification from structural MRI. Many existing studies analyze individual 2D slices extracted from MRI volumes, while clinical neuroimaging practice typically relies on the full three dimensional structure of the brain. From this perspective, volumetric analysis may better capture spatial relationships among brain regions that are relevant to disease progression. Motivated by this idea, this work proposes a multimodal 3D convolutional neural network for AD classification using raw OASIS 1 MRI volumes. The model combines structural T1 information with gray matter, white matter, and cerebrospinal fluid probability maps obtained through FSL FAST segmentation in order to capture complementary neuroanatomical information. The proposed approach is evaluated on the clinically labelled OASIS 1 cohort using 5 fold subject level cross validation, achieving a mean accuracy of 72.34% plus or minus 4.66% and a ROC AUC of 0.7781 plus or minus 0.0365. GradCAM visualizations further indicate that the model focuses on anatomically meaningful regions, including the medial temporal lobe and ventricular areas that are known to be associated with Alzheimer's related structural changes. To better understand how data representation and evaluation strategies may influence reported performance, additional diagnostic experiments were conducted on a slice based version of the dataset under both slice level and subject level protocols. These observations help provide context for the volumetric results. Overall, the proposed multimodal 3D framework establishes a reproducible subject level benchmark and highlights the potential benefits of volumetric MRI analysis for Alzheimer's disease classification.
- Abstract(参考訳): 深層学習は、構造MRIからアルツハイマー病(AD)を分類するための重要なツールとなっている。
既存の多くの研究ではMRIのボリュームから抽出された個々の2Dスライスを分析しているが、臨床の神経画像撮影は一般的に脳の完全な3次元構造に依存している。
この観点から、容積分析は、疾患の進行に関連する脳の領域間の空間的関係をよりよく捉えることができる。
このアイデアに触発された本研究では、生のOASIS 1 MRIボリュームを用いたAD分類のためのマルチモーダル3D畳み込みニューラルネットワークを提案する。
このモデルは、構造的T1情報を灰色の物質、白色物質、およびFSL FASTセグメンテーションによって得られた脳脊髄液の確率マップと組み合わせて、補完的な神経解剖学的情報を取得する。
提案手法は,臨床ラベル付きOASIS 1コホートを用いて,平均精度72.34%,マイナス4.66%,ROC AUC0.7781,マイナス0.0365で評価した。
GradCAMの可視化は、このモデルがアルツハイマーの関連構造変化に関連することが知られている中側頭葉や心室領域を含む解剖学的に意味のある領域に焦点を当てていることを示している。
データ表現と評価戦略が報告された性能にどのように影響するかをよりよく理解するため、スライスレベルとサブジェクトレベルの両方のプロトコルの下でデータセットのスライスベースバージョンで追加の診断実験を行った。
これらの観察は、ボリューム結果のコンテキストを提供するのに役立つ。
提案するマルチモーダル3Dフレームワークは,再現性のある被験者レベルベンチマークを確立し,アルツハイマー病分類のための容積MRI解析の潜在的メリットを強調した。
関連論文リスト
- Four-Stage Alzheimer's Disease Classification from MRI Using Topological Feature Extraction, Feature Selection, and Ensemble Learning [0.8374077003751697]
TDA-Alzは、トポロジカルデータ分析とアンサンブル学習を用いた4段階アルツハイマー病重症度分類のための新しいフレームワークである。
精度は98.19%、AUCは99.75%で、データセットで報告された最先端のディープラーニングベースの手法よりも優れているか、あるいは適合している。
論文 参考訳(メタデータ) (2026-01-01T07:44:51Z) - BRISC: Annotated Dataset for Brain Tumor Segmentation and Classification [0.6840587119863303]
我々は,脳腫瘍のセグメンテーションと分類タスクのためのデータセットであるBRISCを紹介し,高分解能セグメンテーションマスクを特徴とする。
データセットは6000のコントラスト強化T1強調MRIスキャンで構成され、セグメンテーションラベルを欠いた複数の公開データセットから照合された。
悪性腫瘍としてはグリオーマ、髄膜腫、下垂体腫瘍の3種類と非腫瘍の3種類がある。
論文 参考訳(メタデータ) (2025-06-17T08:56:05Z) - Cross-Attention Fusion of MRI and Jacobian Maps for Alzheimer's Disease Diagnosis [5.955559082904072]
アルツハイマー病分類におけるsMRI強度とJSM由来の変形の関係をモデル化するクロスアテンション融合フレームワークを提案する。
ROC-AUCスコアはAD対認知正常(CN)、0.692は軽度認知障害(MCI)、CNは平均0.903である。
性能は高いが、我々のモデルは依然として非常に効率的であり、パラメータはわずか156万で、ResNet-34 (63M) と Swin UNETR (61.98M) の40倍以上である。
論文 参考訳(メタデータ) (2025-03-01T18:50:46Z) - NeuroSymAD: A Neuro-Symbolic Framework for Interpretable Alzheimer's Disease Diagnosis [35.4733004746959]
NeuroSymADは、ニューラルネットワークとシンボリック推論を相乗化するための、ニューロシンボリックなフレームワークである。
ニューラルネットワークは脳のMRIスキャンを受理し、大きな言語モデルは医療規則を蒸留し、生体マーカーや医療史を推論して象徴的なシステムを導く。
論文 参考訳(メタデータ) (2025-03-01T14:29:39Z) - AXIAL: Attention-based eXplainability for Interpretable Alzheimer's Localized Diagnosis using 2D CNNs on 3D MRI brain scans [43.06293430764841]
本研究では,3次元MRIを用いたアルツハイマー病診断の革新的手法を提案する。
提案手法では,2次元CNNがボリューム表現を抽出できるソフトアテンション機構を採用している。
ボクセルレベルの精度では、どの領域に注意が払われているかを同定し、これらの支配的な脳領域を同定する。
論文 参考訳(メタデータ) (2024-07-02T16:44:00Z) - Successive Subspace Learning for Cardiac Disease Classification with
Two-phase Deformation Fields from Cine MRI [36.044984400761535]
本研究は,CVD分類のための軽量な逐次サブスペース学習フレームワークを提案する。
解釈可能なフィードフォワードデザインに基づいており、心房と組み合わせている。
3D CNNベースのアプローチと比較して、我々のフレームワークは140$times$より少ないパラメータで優れた分類性能を実現する。
論文 参考訳(メタデータ) (2023-01-21T15:00:59Z) - Behavior Score-Embedded Brain Encoder Network for Improved
Classification of Alzheimer Disease Using Resting State fMRI [36.40726715739385]
本稿では、日常的に管理される心理検査情報を、被験者の静止状態fMRIデータの符号化手順に統合する行動スコア埋め込みエンコーダネットワーク(BSEN)を提案する。
BSENは、MMSE(MiniMental State Examination)とCDR(Citical Dementia Rating)の行動スコアを併用した3次元畳み込み自己エンコーダ構造に基づく。
提案するBSENを用いた分類フレームワークは, 総合的認識精度59.44%(AD, MCI, Healthy Control)を達成し, 健康管理(HC)と健康管理(HC)の最も差別的な領域を抽出した。
論文 参考訳(メタデータ) (2022-11-04T09:58:45Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。