論文の概要: XDementNET: An Explainable Attention Based Deep Convolutional Network to Detect Alzheimer Progression from MRI data
- arxiv url: http://arxiv.org/abs/2505.13906v1
- Date: Tue, 20 May 2025 04:17:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.733495
- Title: XDementNET: An Explainable Attention Based Deep Convolutional Network to Detect Alzheimer Progression from MRI data
- Title(参考訳): XDementNET:MRIデータからアルツハイマー進行を検出する説明可能な注意に基づく深層畳み込みネットワーク
- Authors: Soyabul Islam Lincoln, Mirza Mohd Shahriar Maswood,
- Abstract要約: 本稿では,多面的ブロック,特殊空間的アテンションブロック,グループ化されたクエリアテンション,マルチヘッドアテンションを取り入れた新しいディープラーニングアーキテクチャを提案する。
ネットワークがMRI画像から重要な情報を取得する能力は、ADステージの分類において優れた精度で示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A common neurodegenerative disease, Alzheimer's disease requires a precise diagnosis and efficient treatment, particularly in light of escalating healthcare expenses and the expanding use of artificial intelligence in medical diagnostics. Many recent studies shows that the combination of brain Magnetic Resonance Imaging (MRI) and deep neural networks have achieved promising results for diagnosing AD. Using deep convolutional neural networks, this paper introduces a novel deep learning architecture that incorporates multiresidual blocks, specialized spatial attention blocks, grouped query attention, and multi-head attention. The study assessed the model's performance on four publicly accessible datasets and concentrated on identifying binary and multiclass issues across various categories. This paper also takes into account of the explainability of AD's progression and compared with state-of-the-art methods namely Gradient Class Activation Mapping (GradCAM), Score-CAM, Faster Score-CAM, and XGRADCAM. Our methodology consistently outperforms current approaches, achieving 99.66\% accuracy in 4-class classification, 99.63\% in 3-class classification, and 100\% in binary classification using Kaggle datasets. For Open Access Series of Imaging Studies (OASIS) datasets the accuracies are 99.92\%, 99.90\%, and 99.95\% respectively. The Alzheimer's Disease Neuroimaging Initiative-1 (ADNI-1) dataset was used for experiments in three planes (axial, sagittal, and coronal) and a combination of all planes. The study achieved accuracies of 99.08\% for axis, 99.85\% for sagittal, 99.5\% for coronal, and 99.17\% for all axis, and 97.79\% and 8.60\% respectively for ADNI-2. The network's ability to retrieve important information from MRI images is demonstrated by its excellent accuracy in categorizing AD stages.
- Abstract(参考訳): 一般的な神経変性疾患であるアルツハイマー病は正確な診断と効率的な治療を必要とし、特に医療費の増大と医療診断における人工知能の利用の増大を考慮に入れている。
近年の研究では、脳磁気共鳴イメージング(MRI)とディープニューラルネットワークの組み合わせがADの診断に有望な成果をもたらしたことが示されている。
本稿では, 深層畳み込みニューラルネットワークを用いて, 多面的ブロック, 特殊空間的アテンションブロック, グループ化されたクエリアテンション, マルチヘッドアテンションを組み込んだ新しいディープラーニングアーキテクチャを提案する。
この研究は、このモデルの性能を4つの公開データセットで評価し、様々なカテゴリでバイナリとマルチクラスの問題を特定することに集中した。
また,ADの進行の可否を考慮し,GradCAM(Gradient Class Activation Mapping)やScore-CAM,Faster Score-CAM,XGRADCAMといった最先端の手法と比較した。
提案手法は,4クラス分類における99.66\%,3クラス分類における99.63\%,Kaggleデータセットを用いたバイナリ分類における100\%の精度で,現在のアプローチよりも一貫して優れている。
Open Access Series of Imaging Studies (OASIS)データセットでは、それぞれ99.92\%、99.90\%、99.95\%である。
アルツハイマー病神経イメージングイニシアチブ-1(ADNI-1)データセットは、3つの平面(軸、矢状、コロナ)と全ての平面の組み合わせの実験に使用された。
この研究は軸が99.08\%、矢状が99.85\%、コロナが99.5\%、全軸が99.17\%、ADNI-2が97.79\%、そして8.60\%の精度を達成した。
ネットワークがMRI画像から重要な情報を取得する能力は、ADステージの分類において優れた精度で示される。
関連論文リスト
- Leveraging Bi-Focal Perspectives and Granular Feature Integration for Accurate Reliable Early Alzheimer's Detection [0.0]
本稿では,異なるスケールでの情報抽出と効率的な情報フローを組み合わせた新しいグラニュラー特徴統合手法を提案する。
また,MRIにおける微妙な神経線維の絡み合いとアミロイドプラークの強調を目的としたバイフォーカスパースペクティブ機構を提案する。
我々のモデルはF1スコア99.31%、精度99.24%、リコール99.51%を達成した。
論文 参考訳(メタデータ) (2024-07-15T17:22:16Z) - AXIAL: Attention-based eXplainability for Interpretable Alzheimer's Localized Diagnosis using 2D CNNs on 3D MRI brain scans [43.06293430764841]
本研究では,3次元MRIを用いたアルツハイマー病診断の革新的手法を提案する。
提案手法では,2次元CNNがボリューム表現を抽出できるソフトアテンション機構を採用している。
ボクセルレベルの精度では、どの領域に注意が払われているかを同定し、これらの支配的な脳領域を同定する。
論文 参考訳(メタデータ) (2024-07-02T16:44:00Z) - SNeurodCNN: Structure-focused Neurodegeneration Convolutional Neural Network for Modelling and Classification of Alzheimer's Disease [0.0]
認知症の主要な形態であるアルツハイマー病(AD)は、世界的な課題となっている。
現在の臨床診断は、放射線技師の専門家による解釈に依存しており、これは人間の誤りを招きやすい。
本稿では,SNeurodCNNという新しい構造に着目した神経変性CNNアーキテクチャを含むディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-08T14:33:57Z) - Lightweight 3D Convolutional Neural Network for Schizophrenia diagnosis
using MRI Images and Ensemble Bagging Classifier [1.487444917213389]
本稿では,MRI画像を用いた統合失調症診断のための軽量3次元畳み込みニューラルネットワーク(CNN)フレームワークを提案する。
精度は92.22%、感度94.44%、特異度90%、精度90.43%、リコール94.44%、F1スコア92.39%、G平均92.19%である。
論文 参考訳(メタデータ) (2022-11-05T10:27:37Z) - Hierarchical Graph Convolutional Network Built by Multiscale Atlases for
Brain Disorder Diagnosis Using Functional Connectivity [48.75665245214903]
本稿では,脳疾患診断のためのマルチスケールFCN解析を行うための新しいフレームワークを提案する。
まず、マルチスケールFCNを計算するために、明確に定義されたマルチスケールアトラスのセットを用いる。
そこで我々は, 生物的に有意な脳階層的関係を多スケールアトラスの領域で利用し, 結節プールを行う。
論文 参考訳(メタデータ) (2022-09-22T04:17:57Z) - Diagnose Like a Radiologist: Hybrid Neuro-Probabilistic Reasoning for
Attribute-Based Medical Image Diagnosis [42.624671531003166]
本稿では,属性に基づく医用画像診断のためのハイブリッド型ニューロ確率推論アルゴリズムを提案する。
我々は,ハイブリッド推論アルゴリズムを2つの困難な画像診断タスクに適用することに成功している。
論文 参考訳(メタデータ) (2022-08-19T12:06:46Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - 3D Structural Analysis of the Optic Nerve Head to Robustly Discriminate
Between Papilledema and Optic Disc Drusen [44.754910718620295]
我々は3次元光コヒーレンストモグラフィー(OCT)スキャンで視神経頭部(ONH)の組織構造を同定する深層学習アルゴリズムを開発した。
1: ODD, 2: papilledema, 3: healthy) の分類を150 OCTボリュームで行うように設計した。
われわれのAIアプローチは,1本のCTスキャンを用いて,パピレデマからODDを正確に識別する。
論文 参考訳(メタデータ) (2021-12-18T17:05:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。