論文の概要: Collaborative Attention and Consistent-Guided Fusion of MRI and PET for Alzheimer's Disease Diagnosis
- arxiv url: http://arxiv.org/abs/2511.02228v1
- Date: Tue, 04 Nov 2025 03:42:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.797063
- Title: Collaborative Attention and Consistent-Guided Fusion of MRI and PET for Alzheimer's Disease Diagnosis
- Title(参考訳): アルツハイマー病診断における共同注意とMRIとPETの併用
- Authors: Delin Ma, Menghui Zhou, Jun Qi, Yun Yang, Po Yang,
- Abstract要約: アルツハイマー病(AD)は認知症の最も一般的な形態であり、早期診断は疾患進行の遅滞に不可欠である。
MRIとPETを用いたマルチモーダル・ニューロイメージング・フュージョンの最近の研究は有望な成果を得た。
本稿では,MRIとPETを用いたAD診断のための協調注意・持続誘導核融合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.33741976057116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Alzheimer's disease (AD) is the most prevalent form of dementia, and its early diagnosis is essential for slowing disease progression. Recent studies on multimodal neuroimaging fusion using MRI and PET have achieved promising results by integrating multi-scale complementary features. However, most existing approaches primarily emphasize cross-modal complementarity while overlooking the diagnostic importance of modality-specific features. In addition, the inherent distributional differences between modalities often lead to biased and noisy representations, degrading classification performance. To address these challenges, we propose a Collaborative Attention and Consistent-Guided Fusion framework for MRI and PET based AD diagnosis. The proposed model introduces a learnable parameter representation (LPR) block to compensate for missing modality information, followed by a shared encoder and modality-independent encoders to preserve both shared and specific representations. Furthermore, a consistency-guided mechanism is employed to explicitly align the latent distributions across modalities. Experimental results on the ADNI dataset demonstrate that our method achieves superior diagnostic performance compared with existing fusion strategies.
- Abstract(参考訳): アルツハイマー病(AD)は認知症の最も一般的な形態であり、早期診断は疾患進行の遅滞に不可欠である。
MRIとPETを用いたマルチモーダル・ニューロイメージング・フュージョンの最近の研究は、マルチスケール補完機能を統合することで有望な成果を上げている。
しかし、既存のほとんどのアプローチは、モダリティ固有の特徴の診断の重要性を見越しながら、主にモダリティ間の相補性を強調している。
さらに、モダリティの固有の分布差は、しばしばバイアスとノイズの表現をもたらし、分類性能を劣化させる。
これらの課題に対処するために,MRIとPETを用いたAD診断のための協調注意・持続誘導核融合フレームワークを提案する。
提案モデルでは,学習可能なパラメータ表現(LPR)ブロックを導入し,モダリティ情報の不足を補うとともに,共有エンコーダとモダリティ非依存エンコーダを用いて,共有表現と特定表現の両方を保存する。
さらに、モダリティをまたいだ潜伏分布を明示的に整列させるために、一貫性誘導機構を用いる。
ADNIデータセットを用いた実験結果から,既存の核融合法と比較して診断性能が優れていることが示された。
関連論文リスト
- Cross-Enhanced Multimodal Fusion of Eye-Tracking and Facial Features for Alzheimer's Disease Diagnosis [9.111075363945892]
視線追跡と顔の特徴は、注意分布と神経認知状態を反映する認知機能の重要な指標である。
アルツハイマー病の診断に視線追跡と顔の特徴を活用する多モーダルクロスエンハンス融合フレームワークを提案する。
我々のフレームワークは、従来のレイトフュージョンや特徴連結法よりも優れています。
論文 参考訳(メタデータ) (2025-10-25T13:30:24Z) - RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - Cross-modal Causal Intervention for Alzheimer's Disease Prediction [12.485088483891843]
本稿では,アルツハイマー病の予防接種による視覚的因果介入の枠組みを提案する。
私たちのフレームワークは、因果的介入を通じて、共同創設者を暗黙的に排除します。
CN/MCI/ADの鑑別において,本手法の優れた性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2025-07-18T14:21:24Z) - MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - DiaMond: Dementia Diagnosis with Multi-Modal Vision Transformers Using MRI and PET [9.229658208994675]
我々はMRIとPETを統合する新しいフレームワークDiaMondを提案する。
DiaMondは、MRIとPETを相乗的に組み合わせた、自己注意機構と、新しいバイアテンション機構を備えている。
既存のマルチモーダルメソッドを、さまざまなデータセットで大幅に上回る。
論文 参考訳(メタデータ) (2024-10-30T17:11:00Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Tensor-Based Multi-Modality Feature Selection and Regression for
Alzheimer's Disease Diagnosis [25.958167380664083]
アルツハイマー病(AD)と軽度認知障害(MCI)の診断・バイオマーカー同定のための新しいテンソルベース多モード特徴選択と回帰法を提案する。
3つの画像モダリティを用いたADNIデータ解析における本手法の実用的利点について述べる。
論文 参考訳(メタデータ) (2022-09-23T02:17:27Z) - Multimodal Representations Learning and Adversarial Hypergraph Fusion
for Early Alzheimer's Disease Prediction [30.99183477161096]
本稿では,アルツハイマー病診断のための新しい表現学習と逆向きハイパーグラフ融合フレームワークを提案する。
本モデルは、他の関連モデルと比較して、アルツハイマー病の検出において優れた性能を発揮する。
論文 参考訳(メタデータ) (2021-07-21T08:08:05Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。