論文の概要: Parkinson Disease classification Using Contrastive Graph Cross-View
Learning with Multimodal Fusion of SPECT Images and Clinical Features
- arxiv url: http://arxiv.org/abs/2311.14902v1
- Date: Sat, 25 Nov 2023 02:32:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 22:55:04.277657
- Title: Parkinson Disease classification Using Contrastive Graph Cross-View
Learning with Multimodal Fusion of SPECT Images and Clinical Features
- Title(参考訳): コントラストグラフクロスビュー学習を用いたSPECT画像のマルチモーダル融合と臨床像を用いたパーキンソン病分類
- Authors: Jun-En Ding, Chien-Chin Hsu, and Feng Liu
- Abstract要約: パーキンソン病(英: Parkinson's Disease、PD)は、神経変性性神経疾患であり、世界中で1000万人以上の患者に影響を与えている。
本研究は,パーキンソン病分類のために,画像と非画像の特徴を併用したマルチモーダルアプローチを提案する。
実験では,グラフビューのマルチモーダル手法により精度91%,AUC92.8%を5倍のクロスバリデーションで達成した。
- 参考スコア(独自算出の注目度): 5.660131312162423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parkinson's Disease (PD) is a neurodegenerative neurological disorder that
impacts movement and afflicts over 10 million people worldwide. Previous
researches have come up with deep learning models for predicting Parkinson's
disease primarily using medical images and didn't leverage the manifold
structure in the dataset. Our study introduces a multimodal approach with both
image and non-image features with a contrastive cross-view graph fusion for
Parkinson's disease classification. Specifically, we designed a multimodal
co-attention module to integrate embeddings from two distinct graph views
derived from low dimensional representation of images and clinical features,
enabling the extraction of more stable and structured features from the
multiview data. Additionally, we have devised a simplified fusion method
utilizing a contrastive loss for positive and negative pairs, to enhance the
model's overall cross-view fusion learning capabilities. In our experiments,
the graph-view multimodal approach can achieve an accuracy rate of 91% and an
AUC of 92.8% in five-fold cross-validation, and it also demonstrates superior
predictive capabilities on non-image data as compared to methods that rely
solely on machine learning methods.
- Abstract(参考訳): パーキンソン病(英: Parkinson's Disease、PD)は、神経変性性神経疾患であり、世界中で1000万人以上の患者に影響を与えている。
これまでの研究では、パーキンソン病を主に医療画像を用いて予測するためのディープラーニングモデルが考案され、データセットの多様体構造を活用できなかった。
本研究は,パーキンソン病分類のために,画像と非画像の特徴を併用したマルチモーダルアプローチを提案する。
具体的には、画像と臨床特徴の低次元表現から導かれる2つの異なるグラフビューからの埋め込みを統合するマルチモーダルコアテンションモジュールを設計し、マルチビューデータからより安定かつ構造化された特徴の抽出を可能にする。
さらに,モデル全体のクロスビュー融合学習能力を向上させるため,正対と負対のコントラスト損失を利用した簡易融合法を考案した。
実験では,グラフビューのマルチモーダル手法は,5倍のクロスバリデーションにおいて精度91%,AUC92.8%を達成することができ,機械学習手法のみに依存する手法に比べて,非画像データに対して優れた予測能力を示す。
関連論文リスト
- Predicting Stroke through Retinal Graphs and Multimodal Self-supervised Learning [0.46835339362676565]
脳卒中の早期発見は介入に不可欠であり、信頼できるモデルを必要とする。
臨床情報とともに効率的な網膜像表現法を提案し,心血管の健康状態の包括的把握を試みた。
論文 参考訳(メタデータ) (2024-11-08T14:40:56Z) - Enhancing Multimodal Medical Image Classification using Cross-Graph Modal Contrastive Learning [5.660131312162423]
本稿では,マルチモーダルな医用画像分類のためのクロスグラフ・モーダルコントラスト学習フレームワークを提案する。
提案手法は、パーキンソン病(PD)データセットと公共メラノーマデータセットの2つのデータセットで評価される。
以上の結果から,CGMCLは従来手法よりも精度,解釈可能性,早期疾患予測に優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-23T01:25:25Z) - MM-GTUNets: Unified Multi-Modal Graph Deep Learning for Brain Disorders Prediction [8.592259720470697]
脳障害予測のためのマルチモーダルグラフ深層学習フレームワークMM-GTUNetsを提案する。
本稿では,報酬システムを用いて集団グラフを適応的に構築するMRRL(Modality Reward Representation Learning)を提案する。
また,ACMGL(Adaptive Cross-Modal Graph Learning)を提案する。
論文 参考訳(メタデータ) (2024-06-20T16:14:43Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Convolutional neural network based on sparse graph attention mechanism
for MRI super-resolution [0.34410212782758043]
深層学習技術を用いた医用画像超解像(SR)再構成は、病変解析を強化し、診断効率と精度を向上させるために医師を支援する。
既存のディープラーニングベースのSR手法は、これらのモデルの表現能力を本質的に制限する畳み込みニューラルネットワーク(CNN)に依存している。
画像特徴抽出に複数の畳み込み演算子特徴抽出モジュール(MCO)を用いるAネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T06:14:22Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Multi-modal Graph Learning for Disease Prediction [35.4310911850558]
病気予測のためのエンドツーエンドのマルチモーダルグラフ学習フレームワーク(MMGL)を提案する。
隣接行列を既存の手法として手動で定義する代わりに、潜在グラフ構造を適応グラフ学習の新しい方法によって捉えることができる。
論文 参考訳(メタデータ) (2021-07-01T03:59:22Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。