論文の概要: Enhanced Classification of Heart Sounds Using Mel Frequency Cepstral Coefficients: A Comparative Study of Single and Ensemble Classifier Strategies
- arxiv url: http://arxiv.org/abs/2406.00702v3
- Date: Sun, 16 Jun 2024 12:43:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 04:08:51.118981
- Title: Enhanced Classification of Heart Sounds Using Mel Frequency Cepstral Coefficients: A Comparative Study of Single and Ensemble Classifier Strategies
- Title(参考訳): メル周波数ケプストラム係数を用いた心臓音の高次分類 : 単音・アンサンブル分類法の比較検討
- Authors: Amir Masoud Rahmani, Amir Haider, Mohammad Adeli, Olfa Mzoughi, Entesar Gemeay, Mokhtar Mohammadi, Hamid Alinejad-Rokny, Parisa Khoshvaght, Mehdi Hosseinzadeh,
- Abstract要約: 本稿では,Mel Frequency Cepstral Coefficients (MFCCs) の有用性について検討した。
単一分類法とアンサンブル分類法という2つの分類法が用いられた。
精度はSVMでは93.59%、kNNでは91.84%、アンサンブル分類戦略では92.22%であった。
- 参考スコア(独自算出の注目度): 8.71882324767316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the efficacy of Mel Frequency Cepstral Coefficients (MFCCs) in detecting abnormal heart sounds using two classification strategies: a single classifier and an ensemble classifier approach. Heart sounds were first pre-processed to remove noise and then segmented into S1, systole, S2, and diastole intervals, with thirteen MFCCs estimated from each segment, yielding 52 MFCCs per beat. Finally, MFCCs were used for heart sound classification. For that purpose, in the single classifier strategy, the MFCCs from nine consecutive beats were averaged to classify heart sounds by a single classifier (either a support vector machine (SVM), the k nearest neighbors (kNN), or a decision tree (DT)). Conversely, the ensemble classifier strategy employed nine classifiers (either nine SVMs, nine kNN classifiers, or nine DTs) to individually assess beats as normal or abnormal, with the overall classification based on the majority vote. Both methods were tested on a publicly available phonocardiogram database. The heart sound classification accuracy was 91.95% for the SVM, 91.9% for the kNN, and 87.33% for the DT in the single classifier strategy. Also, the accuracy was 93.59% for the SVM, 91.84% for the kNN, and 92.22% for the DT in the ensemble classifier strategy. Overall, the results demonstrated that the ensemble classifier strategy improved the accuracies of the DT and the SVM by 4.89% and 1.64%, establishing MFCCs as more effective than other features, including time, time-frequency, and statistical features, evaluated in similar studies.
- Abstract(参考訳): 本稿では,Mel Frequency Cepstral Coefficients (MFCCs) を用いた2つの分類法について検討した。
心臓の音はまずノイズを取り除くために前処理され、その後S1, systole, S2, diastoleの間隔に区切られ、各セグメントから13個のMFCCが推定され、1ビートあたり52個のMFCCが生成される。
最終的に、MFCCは心臓音の分類に使用された。
その目的のために、単一の分類器戦略において、9つの連続したビートからのMFCCを平均して、単一の分類器(SVM)、k近傍の隣人(kNN)、または決定木(DT)のいずれかで心臓音を分類した。
逆に、アンサンブル分類法では9つの分類器(9つのSVM、9つのkNN分類器、または9つのDT)を用いて、個々のビートを正常または異常として評価し、全体分類は多数決に基づいて行った。
どちらの方法も一般に公開されている心電図データベース上でテストされた。
心臓音の分類精度はSVMが91.95%、kNNが91.9%、DTが87.33%であった。
また、SVMでは93.59%、kNNでは91.84%、アンサンブル分類法では92.22%の精度であった。
その結果, アンサンブル分類法はDTとSVMの精度を4.89%, 1.64%改善し, MFCCを時間, 時間周波数, 統計的特徴など他の特徴よりも有効であることを確認した。
関連論文リスト
- Stacking-Enhanced Bagging Ensemble Learning for Breast Cancer Classification with CNN [0.24578723416255752]
本稿では,乳がん分類のためのBaggingおよびスタックングアンサンブル学習手法に基づくCNN分類ネットワークを提案する。
このモデルは入力画像の高速かつ正確な分類を行うことができる。
二項分類(乳がんの有無)では、精度は98.84%に達し、5級分類では98.34%に達した。
論文 参考訳(メタデータ) (2024-07-15T09:44:43Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Low-complexity deep learning frameworks for acoustic scene
classification [64.22762153453175]
音響シーン分類(ASC)のための低複雑さ深層学習フレームワークを提案する。
提案するフレームワークは、フロントエンドのスペクトログラム抽出、オンラインデータ拡張、バックエンドの分類、予測される確率の後期融合の4つの主要なステップに分けることができる。
DCASE 2022 Task 1 Development データセットで実施した実験は,低複雑さの要求を十分に満たし,最も高い分類精度を 60.1% で達成した。
論文 参考訳(メタデータ) (2022-06-13T11:41:39Z) - Global ECG Classification by Self-Operational Neural Networks with
Feature Injection [25.15075119957447]
コンパクトな1次元自己組織化オペレーショナルニューラルネットワーク(Self-ONN)を用いた患者間心電図分類のための新しいアプローチを提案する。
我々は1D Self-ONN層を用いてECGデータから形態表現を自動的に学習し、Rピーク付近のECG波形の形状を捉えることができた。
提案手法は,MIT-BIH ベンチマークデータベースを用いて,これまでで最高の分類性能を達成している。
論文 参考訳(メタデータ) (2022-04-07T22:49:18Z) - Improved AI-based segmentation of apical and basal slices from clinical
cine CMR [1.7647111545685723]
本研究の目的は,基底スライスと尖端スライスを分割する際のAIアルゴリズムの性能を検討することである。
2つのNHS病院から得られた臨床CMRの大規模なデータセットを用いて,全モデルを訓練した。
分類とセグメンテーションのアプローチは、すべてのデータセットのパフォーマンスギャップを減らすのに最適であることを示す。
論文 参考訳(メタデータ) (2021-09-20T10:48:50Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Segmentation-free Heart Pathology Detection Using Deep Learning [12.065014651638943]
本研究では,新しいセグメンテーションフリー心音分類法を提案する。
具体的には、離散ウェーブレット変換を用いて信号をノイズ化し、続いて特徴抽出と特徴量削減を行う。
サポートベクトルマシンとディープニューラルネットワークは分類に使用される。
論文 参考訳(メタデータ) (2021-08-09T16:09:30Z) - Automatic Cough Classification for Tuberculosis Screening in a
Real-World Environment [5.6663315405998365]
結核(tb)患者と他の肺疾患患者が発する発声音とを自動的に判別することが可能であることを示す第1報を報告する。
本実験は, TB患者16名, 呼吸器疾患患者33名, TB以外の患者33名を対象に, 実世界の診療所で得られたコークス記録のデータセットに基づいて行った。
以上の結果から, 音素の自動分類は, TBの低コストで展開可能なフロントラインスクリーニングの手段として有望であり, 開発途上国のTB負荷に大きく貢献すると考えられる。
論文 参考訳(メタデータ) (2021-03-23T15:03:52Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - A Computationally Efficient Multiclass Time-Frequency Common Spatial
Pattern Analysis on EEG Motor Imagery [164.93739293097605]
共通空間パターン(CSP)は脳波(EEG)運動画像(MI)の一般的な特徴抽出法である
本研究では,従来のCSPアルゴリズムを改良し,マルチクラスMI分類精度を改善し,計算処理の効率化を図る。
論文 参考訳(メタデータ) (2020-08-25T18:23:50Z) - Capturing scattered discriminative information using a deep architecture
in acoustic scene classification [49.86640645460706]
本研究では,識別情報を捕捉し,同時に過度に適合する問題を緩和する様々な手法について検討する。
我々は、ディープニューラルネットワークにおける従来の非線形アクティベーションを置き換えるために、Max Feature Map法を採用する。
2つのデータ拡張方法と2つの深いアーキテクチャモジュールは、システムの過度な適合を減らし、差別的なパワーを維持するためにさらに検討されている。
論文 参考訳(メタデータ) (2020-07-09T08:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。