論文の概要: HyMNet: a Multimodal Deep Learning System for Hypertension Classification using Fundus Photographs and Cardiometabolic Risk Factors
- arxiv url: http://arxiv.org/abs/2310.01099v2
- Date: Sun, 24 Mar 2024 12:55:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 02:57:27.910664
- Title: HyMNet: a Multimodal Deep Learning System for Hypertension Classification using Fundus Photographs and Cardiometabolic Risk Factors
- Title(参考訳): HyMNet: 基礎写真と心臓メタボリックリスクファクターを用いた高血圧分類のためのマルチモーダルディープラーニングシステム
- Authors: Mohammed Baharoon, Hessa Almatar, Reema Alduhayan, Tariq Aldebasi, Badr Alahmadi, Yahya Bokhari, Mohammed Alawad, Ahmed Almazroa, Abdulrhman Aljouie,
- Abstract要約: 本研究では,高血圧検出機能を改善するためにHyMNetと呼ばれるマルチモーダルディープラーニングシステムを提案する。
このシステムは、61万枚の網膜画像に基づいて事前訓練された基礎モデルであるRETFoundを、根底の経路と年齢と性別の経路のための完全に接続されたニューラルネットワークに使用している。
このシステムはサウジアラビア国防省から収集された1,243人の網膜画像5,016枚で訓練された。
- 参考スコア(独自算出の注目度): 0.4643589635376552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, deep learning has shown promise in predicting hypertension (HTN) from fundus images. However, most prior research has primarily focused on analyzing a single type of data, which may not capture the full complexity of HTN risk. To address this limitation, this study introduces a multimodal deep learning (MMDL) system, dubbed HyMNet, which combines fundus images and cardiometabolic risk factors, specifically age and gender, to improve hypertension detection capabilities. Our MMDL system uses RETFound, a foundation model pre-trained on 1.6 million retinal images, for the fundus path and a fully connected neural network for the age and gender path. The two paths are jointly trained by concatenating the feature vectors from each path that are then fed into a fusion network. The system was trained on 5,016 retinal images from 1,243 individuals collected from the Saudi Ministry of National Guard Health Affairs. The results show that the multimodal model that integrates fundus images along with age and gender outperforms the unimodal system trained solely on fundus photographs, with an F1 score of 0.771 [0.747, 0.796], and 0.745 [0.719, 0.772] for hypertension detection, respectively. Additionally, we studied the effect underlying diabetes mellitus has on the model's predictive ability, concluding that diabetes is used as a confounding variable for distinguishing hypertensive cases. Our code and model weights are publicly available at https://github.com/MohammedSB/HyMNet.
- Abstract(参考訳): 近年、深層学習は、基礎画像から高血圧(HTN)を予測することを約束している。
しかし、これまでのほとんどの研究は、主に単一のタイプのデータを分析することに重点を置いており、これはHTNリスクの完全な複雑さを捉えていないかもしれない。
この制限に対処するために、HyMNetと呼ばれるマルチモーダルディープラーニング(MMDL)システムを導入する。
我々のMMDLシステムは、約1.6万枚の網膜画像に基づいて事前訓練された基礎モデルであるRETFoundを、基底パスと年齢と性別パスのための完全に接続されたニューラルネットワークに使用しています。
2つの経路は、融合ネットワークに供給される各経路から特徴ベクトルを連結することにより共同で訓練される。
このシステムはサウジアラビア国防省から収集された1,243人の網膜画像5,016枚で訓練された。
その結果, 眼底画像と年齢, 性別を併用したマルチモーダルモデルでは, F1スコアが0.771[0.747, 0.796], 0.745[0.719, 0.772], F1スコアが0.771[0.747, 0.796], F1スコアは0.745[0.719, 0.772]であった。
さらに,糖尿病が糖尿病の予測能力に与える影響について検討し,糖尿病が高血圧患者を識別する指標として有用であると結論づけた。
私たちのコードとモデルの重み付けはhttps://github.com/MohammedSB/HyMNet.comで公開されています。
関連論文リスト
- Integrating Deep Learning with Fundus and Optical Coherence Tomography for Cardiovascular Disease Prediction [47.7045293755736]
心血管疾患(CVD)のリスクのある患者の早期発見は、効果的な予防ケア、医療負担の軽減、患者の生活の質の向上に不可欠である。
本研究は、網膜光コヒーレンス断層撮影(OCT)と眼底写真との併用による、将来の心疾患の特定の可能性を示すものである。
そこで我々は,MCVAE(Multi- Channel Variational Autoencoder)に基づく新たなバイナリ分類ネットワークを提案し,患者の眼底画像とOCT画像の潜伏埋め込みを学習し,個人を将来CVDを発症する可能性のあるものとそうでないものとの2つのグループに分類する。
論文 参考訳(メタデータ) (2024-10-18T12:37:51Z) - Deep Learning Ensemble for Predicting Diabetic Macular Edema Onset Using Ultra-Wide Field Color Fundus Image [3.271278111396875]
糖尿病黄斑浮腫(英: Diabetic macular edema, DME)は、糖尿病の重篤な合併症である。
超広視野カラー写真画像を用いて1年以内にci-DMEの発症を予測するアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T02:16:29Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Improving Classification of Retinal Fundus Image Using Flow Dynamics
Optimized Deep Learning Methods [0.0]
糖尿病網膜症(英: Diabetic Retinopathy, DR)は、糖尿病において網膜に存在する血管網を損傷する障害である。
経験豊富な臨床医は、疾患の特定に使用される画像中の腫瘍を識別する必要があるため、カラー・ファンドス画像を用いてDR診断を行うのにしばらく時間がかかる可能性がある。
論文 参考訳(メタデータ) (2023-04-29T16:11:34Z) - An Ensemble Method to Automatically Grade Diabetic Retinopathy with
Optical Coherence Tomography Angiography Images [4.640835690336653]
糖尿病網膜症解析チャレンジ(DRAC)2022から得られる糖尿病網膜症(DR)画像を自動的に評価するアンサンブル法を提案する。
まず、最先端の分類ネットワークを採用し、利用可能なデータセットの異なる分割でUW-OCTA画像のグレードをトレーニングする。
最終的に、25のモデルを取得し、そのうち上位16のモデルを選択し、アンサンブルして最終的な予測を生成する。
論文 参考訳(メタデータ) (2022-12-12T22:06:47Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Multi-Scale Convolutional Neural Network for Automated AMD
Classification using Retinal OCT Images [1.299941371793082]
加齢関連黄斑変性症(AMD)は、先進国、特に60歳以上の人々において、視覚障害の最も一般的な原因である。
近年のディープラーニングの発展は、完全に自動化された診断フレームワークの開発にユニークな機会を与えている。
様々な大きさの受容場を用いて病理を識別できる多スケール畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2021-10-06T18:20:58Z) - Learning Two-Stream CNN for Multi-Modal Age-related Macular Degeneration
Categorization [6.023239837661721]
加齢関連黄斑変性症(AMD)は50歳以上では一般的な黄斑疾患である。
これまでの研究は、主にシングルモーダル入力によるAMD分類に焦点を当てていた。
対照的に,多モード入力によるAMD分類は臨床的に有意だがほとんど探索されていない方向である。
論文 参考訳(メタデータ) (2020-12-03T12:50:36Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。