論文の概要: ECG Heartbeat Classification Using Multimodal Fusion
- arxiv url: http://arxiv.org/abs/2107.09869v1
- Date: Wed, 21 Jul 2021 03:48:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 21:04:12.089198
- Title: ECG Heartbeat Classification Using Multimodal Fusion
- Title(参考訳): マルチモーダル融合を用いた心電図心拍分類
- Authors: Zeeshan Ahmad, Anika Tabassum, Ling Guan, Naimul Khan
- Abstract要約: 本稿では,心電図の心拍数分類のための2つの計算効率の良いマルチモーダル融合フレームワークを提案する。
MFFでは,CNNの垂直層から特徴を抽出し,それらを融合させてユニークかつ相互依存的な情報を得た。
不整脈では99.7%,MIでは99.2%の分類が得られた。
- 参考スコア(独自算出の注目度): 13.524306011331303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Electrocardiogram (ECG) is an authoritative source to diagnose and counter
critical cardiovascular syndromes such as arrhythmia and myocardial infarction
(MI). Current machine learning techniques either depend on manually extracted
features or large and complex deep learning networks which merely utilize the
1D ECG signal directly. Since intelligent multimodal fusion can perform at the
stateof-the-art level with an efficient deep network, therefore, in this paper,
we propose two computationally efficient multimodal fusion frameworks for ECG
heart beat classification called Multimodal Image Fusion (MIF) and Multimodal
Feature Fusion (MFF). At the input of these frameworks, we convert the raw ECG
data into three different images using Gramian Angular Field (GAF), Recurrence
Plot (RP) and Markov Transition Field (MTF). In MIF, we first perform image
fusion by combining three imaging modalities to create a single image modality
which serves as input to the Convolutional Neural Network (CNN). In MFF, we
extracted features from penultimate layer of CNNs and fused them to get unique
and interdependent information necessary for better performance of classifier.
These informational features are finally used to train a Support Vector Machine
(SVM) classifier for ECG heart-beat classification. We demonstrate the
superiority of the proposed fusion models by performing experiments on
PhysioNets MIT-BIH dataset for five distinct conditions of arrhythmias which
are consistent with the AAMI EC57 protocols and on PTB diagnostics dataset for
Myocardial Infarction (MI) classification. We achieved classification accuracy
of 99.7% and 99.2% on arrhythmia and MI classification, respectively.
- Abstract(参考訳): 心電図(ECG)は、不整脈や心筋梗塞(MI)などの重症心血管症候群を診断し、治療するための権威源である。
現在の機械学習技術は、手動で抽出した特徴や、1d ecg信号を直接利用する大規模で複雑なディープラーニングネットワークに依存する。
そこで本稿では,心電図の拍動分類のための2つの計算効率の良いマルチモーダル融合フレームワークであるMultimodal Image Fusion (MIF)とMultimodal Feature Fusion (MFF)を提案する。
これらのフレームワークの入力では、生のecgデータをグラミアン角場(gaf)、再帰プロット(rp)、マルコフ遷移場(mtf)を用いて3つの異なる画像に変換する。
mifでは,3つのイメージモダリティを組み合わせて,畳み込みニューラルネットワーク(cnn)への入力となる1つのイメージモダリティを生成することにより,画像融合を行う。
MFFでは,CNNの垂直層から特徴を抽出し,識別器の性能向上に必要なユニークかつ相互依存的な情報を得る。
これらの情報機能は、心電図の心拍分類のためのSVM(Support Vector Machine)分類器のトレーニングに最終的に使用される。
我々は、AAMI EC57プロトコルと整合した5つの不整脈条件と、心筋梗塞(MI)分類のためのPTB診断データセットに対して、PhyloNets MIT-BIHデータセットを用いて実験を行うことにより、提案した融合モデルの優位性を示す。
不整脈とmi分類において,99.7%,99.2%の分類精度が得られた。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - VizECGNet: Visual ECG Image Network for Cardiovascular Diseases Classification with Multi-Modal Training and Knowledge Distillation [0.7405975743268344]
実際には、ECGデータはデジタル化された信号または印刷された画像として格納される。
本稿では,複数の心血管疾患の予後を決定するために,心電図のみを用いたVizECGNetを提案する。
論文 参考訳(メタデータ) (2024-08-06T01:34:43Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - EKGNet: A 10.96{\mu}W Fully Analog Neural Network for Intra-Patient
Arrhythmia Classification [79.7946379395238]
心電図不整脈分類におけるアナログ計算と深層学習を組み合わせた統合的アプローチを提案する。
本稿では,低消費電力で高精度にアーカイブするハードウェア効率と完全アナログ不整脈分類アーキテクチャであるEKGNetを提案する。
論文 参考訳(メタデータ) (2023-10-24T02:37:49Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Two-stream Network for ECG Signal Classification [3.222802562733787]
本稿では,心電図に基づく心拍数型の自動分類アルゴリズムを提案する。
本稿では,2ストリームアーキテクチャを用いて,これに基づくECG認識の強化版を提案する。
MIT-BIH Arrhythmia Databaseの結果、提案アルゴリズムは99.38%の精度で実行されている。
論文 参考訳(メタデータ) (2022-10-05T08:14:51Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - ECG Heart-beat Classification Using Multimodal Image Fusion [13.524306011331303]
我々は心電図の心拍分類のための新しい画像融合モデル(IFM)を提案する。
まず、まず、Gramian Angular Field(GAF)、Recurrence Plot(RP)、Markov Transition Field(MTF)を用いて、心電図の心拍を3つの異なる画像に変換する。
論文 参考訳(メタデータ) (2021-05-28T01:31:35Z) - SE-ECGNet: A Multi-scale Deep Residual Network with
Squeeze-and-Excitation Module for ECG Signal Classification [6.124438924401066]
ECG信号分類タスクのためのマルチスケール深部残差ネットワークを開発しています。
我々は,マルチリード信号を2次元行列として扱うことを提案する。
提案モデルは,mit-bihデータセットでは99.2%,alibabaデータセットでは89.4%のf1-scoreを実現する。
論文 参考訳(メタデータ) (2020-12-10T08:37:44Z) - Atrial Fibrillation Detection and ECG Classification based on CNN-BiLSTM [3.1372269816123994]
心電図(ECG)信号から心疾患を視覚的に検出することは困難である。
自動心電図信号検出システムを実装することにより,不整脈の診断精度を向上させることができる。
論文 参考訳(メタデータ) (2020-11-12T04:20:56Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。