論文の概要: Classification of Heart Sounds Using Multi-Branch Deep Convolutional Network and LSTM-CNN
- arxiv url: http://arxiv.org/abs/2407.10689v5
- Date: Thu, 21 Nov 2024 17:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 11:58:51.054357
- Title: Classification of Heart Sounds Using Multi-Branch Deep Convolutional Network and LSTM-CNN
- Title(参考訳): マルチブランチ深部畳み込みネットワークとLSTM-CNNを用いた心臓音の分類
- Authors: Seyed Amir Latifi, Hassan Ghassemian, Maryam Imani,
- Abstract要約: 本稿では,診療所における低コストシステムを用いた心疾患の迅速かつ効率的な診断方法を提案する。
LSCNネットワークによる心臓音の総合的分類精度は96%以上である。
- 参考スコア(独自算出の注目度): 2.7699831151653305
- License:
- Abstract: This paper presents a fast and cost-effective method for diagnosing cardiac abnormalities with high accuracy and reliability using low-cost systems in clinics. The primary limitation of automatic diagnosing of cardiac diseases is the rarity of correct and acceptable labeled samples, which can be expensive to prepare. To address this issue, two methods are proposed in this work. The first method is a unique Multi-Branch Deep Convolutional Neural Network (MBDCN) architecture inspired by human auditory processing, specifically designed to optimize feature extraction by employing various sizes of convolutional filters and audio signal power spectrum as input. In the second method, called as Long short-term memory-Convolutional Neural (LSCN) model, Additionally, the network architecture includes Long Short-Term Memory (LSTM) network blocks to improve feature extraction in the time domain. The innovative approach of combining multiple parallel branches consisting of the one-dimensional convolutional layers along with LSTM blocks helps in achieving superior results in audio signal processing tasks. The experimental results demonstrate superiority of the proposed methods over the state-of-the-art techniques. The overall classification accuracy of heart sounds with the LSCN network is more than 96%. The efficiency of this network is significant compared to common feature extraction methods such as Mel Frequency Cepstral Coefficients (MFCC) and wavelet transform. Therefore, the proposed method shows promising results in the automatic analysis of heart sounds and has potential applications in the diagnosis and early detection of cardiovascular diseases.
- Abstract(参考訳): 本稿では,クリニックにおける低コストシステムを用いて,より高精度かつ信頼性の高い心疾患の迅速かつ低コスト診断法を提案する。
心臓疾患の自動診断の第一の限界は、正確で許容できるラベル付き標本の希少性であり、準備に費用がかかる。
この問題に対処するため,本研究では2つの手法を提案する。
最初の方法は、人間の聴覚処理にインスパイアされた独自のマルチブランチディープ畳み込みニューラルネットワーク(MBDCN)アーキテクチャで、様々なサイズの畳み込みフィルタと音声信号パワースペクトルを入力として利用することによって特徴抽出を最適化するように設計されている。
第二の手法はLong Short-term memory-Convolutional Neural (LSCN)モデルと呼ばれ、ネットワークアーキテクチャにはLong Short-Term Memory (LSTM)ネットワークブロックが含まれており、時間領域における特徴抽出を改善する。
LSTMブロックとともに一次元畳み込み層からなる複数の並列分岐を結合するという革新的なアプローチは、音声信号処理タスクにおいて優れた結果を得るのに役立つ。
実験により,提案手法が最先端技術よりも優れていることが示された。
LSCNネットワークによる心臓音の総合的分類精度は96%以上である。
このネットワークの効率は、Mel Frequency Cepstral Coefficients (MFCC) やウェーブレット変換のような一般的な特徴抽出法と比較すると顕著である。
そこで本手法は,心臓音の自動解析において有望な結果を示し,心血管疾患の診断と早期発見に有効である可能性が示唆された。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - DopUS-Net: Quality-Aware Robotic Ultrasound Imaging based on Doppler
Signal [48.97719097435527]
DopUS-Netはドップラー画像とBモード画像を組み合わせることで、小血管のセグメンテーション精度と堅牢性を高める。
動脈再同定モジュールは、リアルタイムセグメンテーション結果を質的に評価し、拡張ドップラー画像に対するプローブポーズを自動的に最適化する。
論文 参考訳(メタデータ) (2023-05-15T18:19:29Z) - HARDC : A novel ECG-based heartbeat classification method to detect
arrhythmia using hierarchical attention based dual structured RNN with
dilated CNN [3.8791511769387625]
不整脈分類のための拡張CNN (HARDC) 法を用いたハイブリッド階層型双方向リカレントニューラルネットワークを開発した。
提案したHARDCは、拡張CNNと双方向リカレントニューラルネットワークユニット(BiGRU-BiLSTM)アーキテクチャをフル活用して、融合機能を生成する。
以上の結果から,複数種類の不整脈信号の分類を自動化し,高度に計算した手法が有望であることが示唆された。
論文 参考訳(メタデータ) (2023-03-06T13:26:29Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Deep Convolutional Learning-Aided Detector for Generalized Frequency
Division Multiplexing with Index Modulation [0.0]
提案手法は、まずゼロフォース検出器(ZF)を用いて受信信号を前処理し、その後、畳み込みニューラルネットワーク(CNN)と完全連結ニューラルネットワーク(FCNN)からなるニューラルネットワークを用いる。
FCNN部は2つの完全に接続された層しか使用せず、複雑さとBER(bit error rate)パフォーマンスのトレードオフをもたらすことができる。
提案したディープ畳み込みニューラルネットワークに基づく検出・復調方式は,ZF検出器よりも高いBER性能を示し,複雑性が増大することが実証されている。
論文 参考訳(メタデータ) (2022-02-06T22:18:42Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Heart Sound Classification Considering Additive Noise and Convolutional
Distortion [2.63046959939306]
異常検出のための心臓音の自動解析は、加算雑音とセンサ依存劣化の課題に直面している。
本研究の目的は, 心音に両種類の歪みが存在する場合に, 心的異常検出問題に対処する手法を開発することである。
提案手法は, 安価な聴診器を用いて, ノイズの多い環境下で, コンピュータ支援型心臓聴診システムを開発するための道を開くものである。
論文 参考訳(メタデータ) (2021-06-03T14:09:04Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Heart Sound Segmentation using Bidirectional LSTMs with Attention [37.62160903348547]
心電図(PCG)信号を心臓状態に分割するための新しい枠組みを提案する。
我々は近年の注目に基づく学習の進歩を利用してPCG信号のセグメンテーションを行う。
提案手法は,ヒトと動物の両方の心臓記録を含む複数のベンチマークにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-04-02T02:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。