論文の概要: Benchmarking of eight recurrent neural network variants for breath phase
and adventitious sound detection on a self-developed open-access lung sound
database-HF_Lung_V1
- arxiv url: http://arxiv.org/abs/2102.03049v1
- Date: Fri, 5 Feb 2021 08:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 12:50:53.549676
- Title: Benchmarking of eight recurrent neural network variants for breath phase
and adventitious sound detection on a self-developed open-access lung sound
database-HF_Lung_V1
- Title(参考訳): HF_Lung_V1における呼吸相と入射音検出のための8つの繰り返しニューラルネットワークのベンチマーク
- Authors: Fu-Shun Hsu, Shang-Ran Huang, Chien-Wen Huang, Chao-Jung Huang,
Yuan-Ren Cheng, Chun-Chieh Chen, Jack Hsiao, Chung-Wei Chen, Li-Chin Chen,
Yen-Chun Lai, Bi-Fang Hsu, Nian-Jhen Lin, Wan-Lin Tsai, Yi-Lin Wu, Tzu-Ling
Tseng, Ching-Ting Tseng, Yi-Tsun Chen, Feipei Lai
- Abstract要約: 頑健なコンピュータ化された呼吸音解析アルゴリズムは、まだ実用化には至っていない。
我々は,9,765個の肺音の音声ファイルからなる肺音データベース(HF_Lung_V1)を開発した。
その結果,これらのモデルは肺の音像解析において十分な性能を示した。
- 参考スコア(独自算出の注目度): 0.35775620736088914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A reliable, remote, and continuous real-time respiratory sound monitor with
automated respiratory sound analysis ability is urgently required in many
clinical scenarios-such as in monitoring disease progression of coronavirus
disease 2019-to replace conventional auscultation with a handheld stethoscope.
However, a robust computerized respiratory sound analysis algorithm has not yet
been validated in practical applications. In this study, we developed a lung
sound database (HF_Lung_V1) comprising 9,765 audio files of lung sounds
(duration of 15 s each), 34,095 inhalation labels, 18,349 exhalation labels,
13,883 continuous adventitious sound (CAS) labels (comprising 8,457 wheeze
labels, 686 stridor labels, and 4,740 rhonchi labels), and 15,606 discontinuous
adventitious sound labels (all crackles). We conducted benchmark tests for long
short-term memory (LSTM), gated recurrent unit (GRU), bidirectional LSTM
(BiLSTM), bidirectional GRU (BiGRU), convolutional neural network (CNN)-LSTM,
CNN-GRU, CNN-BiLSTM, and CNN-BiGRU models for breath phase detection and
adventitious sound detection. We also conducted a performance comparison
between the LSTM-based and GRU-based models, between unidirectional and
bidirectional models, and between models with and without a CNN. The results
revealed that these models exhibited adequate performance in lung sound
analysis. The GRU-based models outperformed, in terms of F1 scores and areas
under the receiver operating characteristic curves, the LSTM-based models in
most of the defined tasks. Furthermore, all bidirectional models outperformed
their unidirectional counterparts. Finally, the addition of a CNN improved the
accuracy of lung sound analysis, especially in the CAS detection tasks.
- Abstract(参考訳): 従来の聴診を手持ち聴診器で置き換えるには,2019年の新型コロナウイルスの進行状況のモニタリングなど,多くの臨床シナリオにおいて,自動呼吸音解析機能を備えた,信頼性の高い遠隔連続リアルタイム呼吸音モニターが必要である。
しかし,ロバストなコンピュータによる呼吸音解析アルゴリズムが実用化されていない。
本研究では,9,765個の肺音(それぞれ15秒),34,095個の吸入ラベル,18,349個の吸入ラベル,13,883個の連続冒険音(CAS)ラベル(計8,457個のワイズラベル,686個のストリドールラベル,4,740個のホンチラベルを含む肺音データベース(HF_Lung_V1)を開発した。
長期メモリ(LSTM)、ゲートリカレントユニット(GRU)、双方向LSTM(BiLSTM)、双方向GRU(BiGRU)、畳み込みニューラルネットワーク(CNN)-LSTM、CNN-GRU、CNN-BiLSTM、CNN-BiGRUモデルのベンチマークテストを行い、呼吸段階の検出と冒険音検出を行った。
また,LSTMベースモデルとGRUベースモデル,一方向モデルと双方向モデル,CNNの有無による性能比較を行った。
その結果,これらのモデルが肺音解析に十分な性能を示した。
GRUベースのモデルは、F1スコアと受信機の動作特性曲線下の領域の点で、定義されたタスクのほとんどでLSTMベースのモデルよりも優れています。
さらに、全ての双方向モデルは一方向モデルよりも優れていた。
最後に、CNNの追加により、特にCAS検出タスクにおいて、肺の音像解析の精度が向上した。
関連論文リスト
- Self-Supervised Pretraining Improves Performance and Inference
Efficiency in Multiple Lung Ultrasound Interpretation Tasks [65.23740556896654]
肺超音波検査における複数分類課題に適用可能なニューラルネットワーク特徴抽出器を,自己指導型プレトレーニングで作成できるかどうかを検討した。
3つの肺超音波のタスクを微調整すると、事前訓練されたモデルにより、各テストセットの受信操作曲線(AUC)における平均クロスタスク面積は、それぞれ0.032と0.061に改善された。
論文 参考訳(メタデータ) (2023-09-05T21:36:42Z) - Generalizing electrocardiogram delineation: training convolutional
neural networks with synthetic data augmentation [63.51064808536065]
ECGのデライン化のための既存のデータベースは小さく、サイズやそれらが表す病態の配列に不足している。
まず、原データベースから抽出した基本セグメントのプールを与えられたECGトレースを確率的に合成し、その整合性のある合成トレースに配置するための一連のルールを考案した。
第二に、2つの新しいセグメンテーションに基づく損失関数が開発され、これは、正確な数の独立構造の予測を強制し、サンプル数の削減に焦点をあてて、より密接なセグメンテーション境界を創出することを目的としている。
論文 参考訳(メタデータ) (2021-11-25T10:11:41Z) - Cough Detection Using Selected Informative Features from Audio Signals [24.829135966052142]
モデルは、ESC-50データセットと自己記録コークス記録を組み合わせたデータセットでトレーニングされる。
最高のコー検出モデルは、それぞれ94.9%、97.1%、93.1%、0.95の精度、リコール、精度、F1スコアを実現する。
論文 参考訳(メタデータ) (2021-08-07T23:05:18Z) - Improved Breath Phase and Continuous Adventitious Sound Detection in
Lung and Tracheal Sound Using Mixed Set Training and Domain Adaptation [2.405718960148456]
気管音響データベースHF_Tracheal_V1を構築し、15秒間の気管音響記録の11107、吸入ラベル23087、吸入ラベル16728、吸入ラベル6874、CASラベル6874を含む。
HF_Tracheal_V1の気管音とHF_Lung_V2の肺音を組み合わせるか、単独でCNN-BiGRUモデルを訓練し、気管音響解析を行った。
論文 参考訳(メタデータ) (2021-07-09T06:04:18Z) - Quantification of pulmonary involvement in COVID-19 pneumonia by means
of a cascade oftwo U-nets: training and assessment on multipledatasets using
different annotation criteria [83.83783947027392]
本研究は、新型コロナウイルスの肺病変の同定、セグメント化、定量化のために人工知能(AI)を活用することを目的とする。
2つのU-netのカスケードをベースとした自動解析パイプラインLungQuantシステムを開発した。
LungQuantシステムにおけるCT-Severity Score(CT-SS)の精度も評価した。
論文 参考訳(メタデータ) (2021-05-06T10:21:28Z) - Crackle Detection In Lung Sounds Using Transfer Learning And Multi-Input
Convolitional Neural Networks [26.399917342840265]
肺音のクラックル検出における記録設定のミスマッチに対処するために,転送学習を用いる。
単一の入力畳み込みニューラルネットワーク(CNN)モデルは、肺音の最大の公開データベースであるIBHI 2017を使用して、ソースドメインで事前に訓練されます。
マルチインプットモデルは, クラックや正常な肺音を分類するために, 自己収集肺音データベースのターゲット領域に微調整される。
論文 参考訳(メタデータ) (2021-04-30T11:32:42Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - Multilabel 12-Lead Electrocardiogram Classification Using Gradient
Boosting Tree Ensemble [64.29529357862955]
我々は,心電図の診断を分類するために,形態や信号処理機能に適合した勾配強化木のアンサンブルを用いたアルゴリズムを構築した。
各リードについて、心拍変動、PQRSTテンプレート形状、全信号波形から特徴を導出する。
各クラスに属するECGインスタンスの確率を予測するため、全12項目の特徴と合わせて、勾配を増す決定ツリーの集合に適合する。
論文 参考訳(メタデータ) (2020-10-21T18:11:36Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z) - A Systematic Search over Deep Convolutional Neural Network Architectures
for Screening Chest Radiographs [4.6411273009803065]
胸部X線写真は肺・胸部疾患のスクリーニングに用いられる。
近年の取り組みは、深層畳み込みニューラルネットワーク(CNN)のアンサンブルを用いた性能ベンチマークを実証している。
複数の標準CNNアーキテクチャを体系的に探索し、分類性能がアンサンブルと同等であることが判明した単一候補モデルを特定した。
論文 参考訳(メタデータ) (2020-04-24T12:30:40Z) - Deep Neural Network for Respiratory Sound Classification in Wearable
Devices Enabled by Patient Specific Model Tuning [2.8935588665357077]
メル・スペクトログラムに基づく呼吸音を分類する深層CNN-RNNモデルを提案する。
また、まず呼吸器患者をスクリーニングし、次いで患者固有の分類モデルを構築する患者特化モデルチューニング戦略を実装した。
The proposed hybrid CNN-RNN model achieves 66.31% on four-class classification of breath cycles for ICBHI'17 scientific challenge respiratory sound database。
論文 参考訳(メタデータ) (2020-04-16T15:42:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。