論文の概要: Enhancing Cardiovascular Disease Prediction through Multi-Modal Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2411.05900v1
- Date: Fri, 08 Nov 2024 16:32:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:11:19.573825
- Title: Enhancing Cardiovascular Disease Prediction through Multi-Modal Self-Supervised Learning
- Title(参考訳): マルチモーダル・セルフ・スーパーバイザード・ラーニングによる心血管疾患予測の強化
- Authors: Francesco Girlanda, Olga Demler, Bjoern Menze, Neda Davoudi,
- Abstract要約: 本稿では,限られたアノテートデータセットを用いて心血管疾患の予測を改善するための包括的な枠組みを提案する。
マスク付きオートエンコーダを用いて心電図ECGエンコーダを事前訓練し、生の心電図データから関連する特徴を抽出する。
心筋梗塞などの特定の予測課題について,事前に訓練したエンコーダを微調整した。
- 参考スコア(独自算出の注目度): 0.17708284654788597
- License:
- Abstract: Accurate prediction of cardiovascular diseases remains imperative for early diagnosis and intervention, necessitating robust and precise predictive models. Recently, there has been a growing interest in multi-modal learning for uncovering novel insights not available through uni-modal datasets alone. By combining cardiac magnetic resonance images, electrocardiogram signals, and available medical information, our approach enables the capture of holistic status about individuals' cardiovascular health by leveraging shared information across modalities. Integrating information from multiple modalities and benefiting from self-supervised learning techniques, our model provides a comprehensive framework for enhancing cardiovascular disease prediction with limited annotated datasets. We employ a masked autoencoder to pre-train the electrocardiogram ECG encoder, enabling it to extract relevant features from raw electrocardiogram data, and an image encoder to extract relevant features from cardiac magnetic resonance images. Subsequently, we utilize a multi-modal contrastive learning objective to transfer knowledge from expensive and complex modality, cardiac magnetic resonance image, to cheap and simple modalities such as electrocardiograms and medical information. Finally, we fine-tuned the pre-trained encoders on specific predictive tasks, such as myocardial infarction. Our proposed method enhanced the image information by leveraging different available modalities and outperformed the supervised approach by 7.6% in balanced accuracy.
- Abstract(参考訳): 心臓血管疾患の正確な予測は、早期診断と介入に必須であり、堅牢で正確な予測モデルを必要とする。
最近、ユニモーダルデータセットだけでは利用できない新しい洞察を明らかにするために、マルチモーダル学習への関心が高まっている。
心磁気共鳴画像,心電図信号,医用情報を組み合わせることで,モダリティ間の共有情報を活用することで,個人心血管の健康状態の総合的把握を可能にした。
複数のモードからの情報を統合し、自己教師付き学習技術から恩恵を受けることで、本モデルは、限られた注釈付きデータセットを用いて、心血管疾患の予測を強化するための包括的なフレームワークを提供する。
マスク付きオートエンコーダを用いて心電図ECGエンコーダを事前訓練し、生の心電図データから関連する特徴を抽出し、心磁気共鳴画像から関連する特徴を抽出する画像エンコーダを開発した。
次に,高額かつ複雑なモダリティ,心臓磁気共鳴画像から,心電図や医療情報などの安価でシンプルなモダリティへ知識を伝達するために,マルチモーダルコントラスト学習の目的を利用する。
最後に、心筋梗塞などの特定の予測タスクについて、トレーニング済みのエンコーダを微調整した。
提案手法は,利用可能な様々なモダリティを活用して画像情報を強化し,教師ありアプローチの精度を7.6%向上させた。
関連論文リスト
- Private, Efficient and Scalable Kernel Learning for Medical Image Analysis [1.7999333451993955]
OKRA(Orthonormal K-fRAmes)は、カーネルベースの機械学習のための新しいランダム化符号化ベースのアプローチである。
現在の最先端ソリューションと比較して、スケーラビリティとスピードが大幅に向上します。
論文 参考訳(メタデータ) (2024-10-21T10:03:03Z) - CMRxRecon2024: A Multi-Modality, Multi-View K-Space Dataset Boosting Universal Machine Learning for Accelerated Cardiac MRI [39.0162369912624]
CMRxRecon2024データセットは、最も大きく、最も多種多様な公開されたk空間データセットである。
健常者330名から取得され、一般的に使用されるモダリティ、解剖学的視点、臨床心臓MRIにおける獲得軌跡をカバーしている。
論文 参考訳(メタデータ) (2024-06-27T09:50:20Z) - Deciphering Heartbeat Signatures: A Vision Transformer Approach to Explainable Atrial Fibrillation Detection from ECG Signals [4.056982620027252]
単誘導心電図データに基づいて心房細動を識別するための視覚変換器アプローチを開発した。
また、残差ネットワーク(ResNet)アプローチも、視覚変換器アプローチと比較するために開発されている。
論文 参考訳(メタデータ) (2024-02-12T11:04:08Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - CMRxRecon: An open cardiac MRI dataset for the competition of
accelerated image reconstruction [62.61209705638161]
ディープラーニングベースのCMRイメージングアルゴリズムへの関心が高まっている。
ディープラーニング手法は大規模なトレーニングデータセットを必要とする。
このデータセットには300人の被験者のマルチコントラスト、マルチビュー、マルチスライス、マルチコイルCMRイメージングデータが含まれている。
論文 参考訳(メタデータ) (2023-09-19T15:14:42Z) - Unlocking the Diagnostic Potential of ECG through Knowledge Transfer
from Cardiac MRI [6.257859765229826]
本稿では,CMR画像からECG埋め込みへドメイン固有情報を転送する,自己監督型コントラスト手法を提案する。
本手法は,マルチモーダルコントラスト学習とマスク付きデータモデリングを組み合わせることで,心電図データのみから全体的心臓検診を可能にする。
論文 参考訳(メタデータ) (2023-08-09T10:05:11Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - ECG-Based Heart Arrhythmia Diagnosis Through Attentional Convolutional
Neural Networks [9.410102957429705]
本稿では,意図に基づく畳み込みニューラルネットワーク(ABCNN)を用いて生の心電図信号に対処し,正確な不整脈検出のための情報的依存関係を自動的に抽出する手法を提案する。
我々の主な課題は、正常な心拍から不整脈を見つけ、その間に5種類の不整脈から心疾患を正確に認識することである。
実験の結果,提案するABCNNは広く使用されているベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-08-18T14:55:46Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。