論文の概要: DiaMond: Dementia Diagnosis with Multi-Modal Vision Transformers Using MRI and PET
- arxiv url: http://arxiv.org/abs/2410.23219v1
- Date: Wed, 30 Oct 2024 17:11:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:28:37.438453
- Title: DiaMond: Dementia Diagnosis with Multi-Modal Vision Transformers Using MRI and PET
- Title(参考訳): DiaMond:MRIとPETを用いたマルチモーダル視覚変換器による認知症診断
- Authors: Yitong Li, Morteza Ghahremani, Youssef Wally, Christian Wachinger,
- Abstract要約: 我々はMRIとPETを統合する新しいフレームワークDiaMondを提案する。
DiaMondは、MRIとPETを相乗的に組み合わせた、自己注意機構と、新しいバイアテンション機構を備えている。
既存のマルチモーダルメソッドを、さまざまなデータセットで大幅に上回る。
- 参考スコア(独自算出の注目度): 9.229658208994675
- License:
- Abstract: Diagnosing dementia, particularly for Alzheimer's Disease (AD) and frontotemporal dementia (FTD), is complex due to overlapping symptoms. While magnetic resonance imaging (MRI) and positron emission tomography (PET) data are critical for the diagnosis, integrating these modalities in deep learning faces challenges, often resulting in suboptimal performance compared to using single modalities. Moreover, the potential of multi-modal approaches in differential diagnosis, which holds significant clinical importance, remains largely unexplored. We propose a novel framework, DiaMond, to address these issues with vision Transformers to effectively integrate MRI and PET. DiaMond is equipped with self-attention and a novel bi-attention mechanism that synergistically combine MRI and PET, alongside a multi-modal normalization to reduce redundant dependency, thereby boosting the performance. DiaMond significantly outperforms existing multi-modal methods across various datasets, achieving a balanced accuracy of 92.4% in AD diagnosis, 65.2% for AD-MCI-CN classification, and 76.5% in differential diagnosis of AD and FTD. We also validated the robustness of DiaMond in a comprehensive ablation study. The code is available at https://github.com/ai-med/DiaMond.
- Abstract(参考訳): 認知症,特にアルツハイマー病(AD)と前頭側頭型認知症(FTD)は重度の症状が重なり複雑である。
磁気共鳴画像(MRI)とポジトロン・エミッション・トモグラフィー(PET)のデータは診断に重要であるが、これらのモダリティを深層学習の課題に組み込むことは、単一のモダリティを使用する場合と比較して、しばしば最適以下のパフォーマンスをもたらす。
さらに, 臨床的に重要な鑑別診断におけるマルチモーダルアプローチの可能性については, 明らかにされていない。
視覚変換器を用いてMRIとPETを効果的に統合する新しいフレームワークDiaMondを提案する。
DiaMondには自己注意機構と、MRIとPETを相乗的に組み合わせた新しいバイアテンション機構と、冗長な依存性を減らすためのマルチモーダル正規化が備わっている。
DiaMondは、AD診断における92.4%の精度、AD-MCI-CN分類における65.2%、ADとFTDの鑑別診断における76.5%の精度で、既存のマルチモーダル法よりも大幅に優れている。
また,包括的アブレーション研究において,ダイアモンドの堅牢性についても検証した。
コードはhttps://github.com/ai-med/DiaMond.comで入手できる。
関連論文リスト
- MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z) - GFE-Mamba: Mamba-based AD Multi-modal Progression Assessment via Generative Feature Extraction from MCI [5.355943545567233]
アルツハイマー病(英語: Alzheimer's Disease、AD)は、軽度認知障害(MCI)から進行する可逆性神経変性疾患である。
生成特徴抽出(GFE)に基づく分類器GFE-Mambaを紹介する。
評価尺度、MRI、PETのデータを統合し、より深いマルチモーダル融合を可能にする。
GFE-MambaモデルがMCIからADへの変換予測に有効であることを示す。
論文 参考訳(メタデータ) (2024-07-22T15:22:33Z) - Revolutionizing Disease Diagnosis with simultaneous functional PET/MR and Deeply Integrated Brain Metabolic, Hemodynamic, and Perfusion Networks [40.986069119392944]
マルチモーダルなMiXture-of-expertsアライメント再構成とモデルであるMX-ARMを提案する。
モダリティは分離可能で交換可能であり、異なる多層パーセプトロン(「専門家の混合」)を学習可能な重みを通して動的に割り当て、異なるモダリティからそれぞれの表現を学ぶ。
論文 参考訳(メタデータ) (2024-03-29T08:47:49Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - A Bi-Pyramid Multimodal Fusion Method for the Diagnosis of Bipolar
Disorders [11.622160966334745]
我々はMRIとfMRIの両方のデータを用いて、双極性障害のマルチモーダル診断モデルを提案する。
提案手法は,OpenfMRIデータセットの精度を0.657から0.732に向上させる。
論文 参考訳(メタデータ) (2024-01-15T10:11:19Z) - Unsupervised Anomaly Detection using Aggregated Normative Diffusion [46.24703738821696]
教師なし異常検出は、より広い範囲の異常を識別する可能性がある。
既存の最先端のUADアプローチは、様々な種類の異常に対してうまく一般化しない。
Aggregated Normative Diffusion (ANDi) という新しいUAD法を提案する。
論文 参考訳(メタデータ) (2023-12-04T14:02:56Z) - Cross-Attention is Not Enough: Incongruity-Aware Dynamic Hierarchical
Fusion for Multimodal Affect Recognition [69.32305810128994]
モダリティ間の同調性は、特に認知に影響を及ぼすマルチモーダル融合の課題となる。
本稿では,動的モダリティゲーティング(HCT-DMG)を用いた階層型クロスモーダルトランスを提案する。
HCT-DMG: 1) 従来のマルチモーダルモデルを約0.8Mパラメータで上回り、2) 不整合が認識に影響を及ぼすハードサンプルを認識し、3) 潜在レベルの非整合性をクロスモーダルアテンションで緩和する。
論文 参考訳(メタデータ) (2023-05-23T01:24:15Z) - Tensor-Based Multi-Modality Feature Selection and Regression for
Alzheimer's Disease Diagnosis [25.958167380664083]
アルツハイマー病(AD)と軽度認知障害(MCI)の診断・バイオマーカー同定のための新しいテンソルベース多モード特徴選択と回帰法を提案する。
3つの画像モダリティを用いたADNIデータ解析における本手法の実用的利点について述べる。
論文 参考訳(メタデータ) (2022-09-23T02:17:27Z) - Is a PET all you need? A multi-modal study for Alzheimer's disease using
3D CNNs [3.678164468512092]
アルツハイマー病(Alzheimer's Disease, AD)は、認知症の最も一般的な形態であり、認知症の多因子因果関係により診断が困難であることが多い。
神経画像を用いた深部神経ネットワーク(DNN)を用いたコンピュータ支援診断の最近の研究は、構造的磁気共鳴画像(sMRI)とフルオロデオキシグルコースポジトロン放射断層撮影(FDG-PET)を融合させることにより、ADの健康管理と被験者の集団において精度が向上することを示した。
今後のマルチモーダル融合の取り組みは,提案した評価枠組みに従って,個別のモダリティの貢献を体系的に評価すべきである,と論じる。
論文 参考訳(メタデータ) (2022-07-05T14:55:56Z) - Subgroup discovery of Parkinson's Disease by utilizing a multi-modal
smart device system [63.20765930558542]
われわれはスマートウォッチとスマートフォンを使って、PD患者、DD、HCを含む504人の参加者のマルチモーダルデータを収集した。
様々なモダリティを組み合わせることで,分類精度が向上し,さらにPDクラスタが発見された。
論文 参考訳(メタデータ) (2022-05-12T08:59:57Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。