論文の概要: Noisy Neonatal Chest Sound Separation for High-Quality Heart and Lung
Sounds
- arxiv url: http://arxiv.org/abs/2201.03211v1
- Date: Mon, 10 Jan 2022 08:38:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 17:28:06.559423
- Title: Noisy Neonatal Chest Sound Separation for High-Quality Heart and Lung
Sounds
- Title(参考訳): 高品質心肺音に対する新生児胸部音分離術
- Authors: Ethan Grooby, Chiranjibi Sitaula, Davood Fattahi, Reza Sameni, Kenneth
Tan, Lindsay Zhou, Arrabella King, Ashwin Ramanathan, Atul Malhotra, Guy A.
Dumont, Faezeh Marzbanrad
- Abstract要約: 聴診器に記録された胸部音は新生児の遠隔循環型健康モニタリングの機会となる。
信頼性の高いモニタリングには、高品質な心臓と肺の音が必要である。
新生児胸部音響分離のための新しい非負マトリックス因子分解法(NMF)と非負マトリックス共役法(NMCF)を提案する。
- 参考スコア(独自算出の注目度): 2.536333994672575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stethoscope-recorded chest sounds provide the opportunity for remote
cardio-respiratory health monitoring of neonates. However, reliable monitoring
requires high-quality heart and lung sounds. This paper presents novel
Non-negative Matrix Factorisation (NMF) and Non-negative Matrix
Co-Factorisation (NMCF) methods for neonatal chest sound separation. To assess
these methods and compare with existing single-source separation methods, an
artificial mixture dataset was generated comprising of heart, lung and noise
sounds. Signal-to-noise ratios were then calculated for these artificial
mixtures. These methods were also tested on real-world noisy neonatal chest
sounds and assessed based on vital sign estimation error and a signal quality
score of 1-5 developed in our previous works. Additionally, the computational
cost of all methods was assessed to determine the applicability for real-time
processing. Overall, both the proposed NMF and NMCF methods outperform the next
best existing method by 2.7dB to 11.6dB for the artificial dataset and 0.40 to
1.12 signal quality improvement for the real-world dataset. The median
processing time for the sound separation of a 10s recording was found to be
28.3s for NMCF and 342ms for NMF. Because of stable and robust performance, we
believe that our proposed methods are useful to denoise neonatal heart and lung
sound in a real-world environment. Codes for proposed and existing methods can
be found at: https://github.com/egrooby-monash/Heart-and-Lung-Sound-Separation.
- Abstract(参考訳): 聴診器に記録された胸部音は新生児の遠隔循環型健康モニタリングの機会となる。
しかし、信頼できるモニタリングには高品質な心臓と肺の音が必要である。
新生児胸部音響分離のための新しい非負マトリックス因子分解法(NMF)と非負マトリックス共役法(NMCF)を提案する。
これらの方法を評価し,既存の単一音源分離法と比較するため,心臓,肺,騒音音からなる人工混合データセットを作成した。
次にこれらの人工混合物に対して信号-雑音比を計算した。
これらの手法は, 実環境における新生児胸部雑音にも適用し, バイタルサイン推定誤差と信号品質スコア1-5に基づいて評価した。
さらに,全手法の計算コストを評価し,リアルタイム処理への適用性を検討した。
概して、提案されたnmfとnmcfの手法は、人工データセットでは2.7dbから11.6dbで、実世界のデータセットでは0.40から1.12の信号品質改善を行う。
10s記録の音声分離の中央処理時間は、nmcfでは28.3秒、nmfでは342msであった。
安定でロバストな性能を有するため,本提案手法は実環境における新生児の心臓音と肺音の発声に有用であると考えられる。
提案および既存のメソッドのコードは、https://github.com/egrooby-monash/Heart-and-Lung-Sound-Separationで見ることができる。
関連論文リスト
- Model-driven Heart Rate Estimation and Heart Murmur Detection based on Phonocardiogram [4.5546756241897235]
本研究は, 心電図(PCG)データセットを用いて心拍数を推定する。
マルチタスク学習フレームワークにベストパフォーマンスモデルを拡張し、心拍数推定と大腿骨骨折検出を同時に行う。
論文 参考訳(メタデータ) (2024-07-25T22:56:21Z) - Adversarial Fine-tuning using Generated Respiratory Sound to Address
Class Imbalance [1.3686993145787067]
本稿では,条件付きニューラルボコーダとして音声拡散モデルを用いて,不均衡な呼吸音データを増やすための簡単なアプローチを提案する。
また, 合成音と実呼吸音の特徴を整合させ, 呼吸音の分類性能を向上させるために, 簡易かつ効果的な対向微調整法を実証した。
論文 参考訳(メタデータ) (2023-11-11T05:02:54Z) - EKGNet: A 10.96{\mu}W Fully Analog Neural Network for Intra-Patient
Arrhythmia Classification [79.7946379395238]
心電図不整脈分類におけるアナログ計算と深層学習を組み合わせた統合的アプローチを提案する。
本稿では,低消費電力で高精度にアーカイブするハードウェア効率と完全アナログ不整脈分類アーキテクチャであるEKGNetを提案する。
論文 参考訳(メタデータ) (2023-10-24T02:37:49Z) - SMRD: SURE-based Robust MRI Reconstruction with Diffusion Models [76.43625653814911]
拡散モデルは、高い試料品質のため、MRIの再生を加速するために人気を博している。
推論時に柔軟にフォワードモデルを組み込んだまま、効果的にリッチなデータプリエントとして機能することができる。
拡散モデル(SMRD)を用いたSUREに基づくMRI再構成を導入し,テスト時の堅牢性を向上する。
論文 参考訳(メタデータ) (2023-10-03T05:05:35Z) - Brain Imaging-to-Graph Generation using Adversarial Hierarchical Diffusion Models for MCI Causality Analysis [44.45598796591008]
機能的磁気共鳴画像(fMRI)を軽度認知障害解析のための効果的な接続性にマッピングするために,脳画像から画像へのBIGG(Brain Imaging-to-graph generation)フレームワークを提案する。
発電機の階層変換器は、複数のスケールでノイズを推定するように設計されている。
ADNIデータセットの評価は,提案モデルの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-05-18T06:54:56Z) - Real-Time Multi-Level Neonatal Heart and Lung Sound Quality Assessment
for Telehealth Applications [0.08872883781800303]
遠隔医療と組み合わせたデジタル聴診器により、胸部音の収集と送信が容易になり、遠隔監視と診断が可能となった。
低品質の記録は遠隔監視と診断を複雑にする。
心臓と肺の信号品質を5段階の尺度でリアルタイムに客観的かつ自動評価する手法が提案されている。
論文 参考訳(メタデータ) (2021-09-29T01:08:20Z) - A New Non-Negative Matrix Co-Factorisation Approach for Noisy Neonatal
Chest Sound Separation [0.09512887847441218]
非負のマトリックス共役に基づく新しいアプローチが提案され, 胸部雑音を心臓, 肺, 騒音成分に分離する。
この方法は、ノイズ録音の音を分離しながら、20の高品質な心臓と肺の音を訓練することで達成される。
その結果, 心臓および肺の音質は有意に改善し, 心拍数3.6bpmと1.2bpmの精度が向上した。
論文 参考訳(メタデータ) (2021-09-04T02:48:02Z) - The Diagnosis of Asthma using Hilbert-Huang Transform and Deep Learning
on Lung Sounds [2.294014185517203]
ヒルベルト変換を肺音に適用することにより抽出される固有モード関数から統計的特徴を算出した。
喘息および健常者からの肺音の分類はDeep Belief Networks(DBN)を用いて行われる。
論文 参考訳(メタデータ) (2021-01-20T19:04:33Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z) - Automated Quantification of CT Patterns Associated with COVID-19 from
Chest CT [48.785596536318884]
提案法は,非造影胸部CTを入力として,病変,肺,葉を3次元に分割する。
この方法では、肺の重症度と葉の関与度を2つの組み合わせて測定し、COVID-19の異常度と高不透明度の存在度を定量化する。
このアルゴリズムの評価は、カナダ、ヨーロッパ、米国からの200人の参加者(感染者100人、健康管理100人)のCTで報告されている。
論文 参考訳(メタデータ) (2020-04-02T21:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。