論文の概要: Crackle Detection In Lung Sounds Using Transfer Learning And Multi-Input
Convolitional Neural Networks
- arxiv url: http://arxiv.org/abs/2104.14921v1
- Date: Fri, 30 Apr 2021 11:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 19:10:11.031222
- Title: Crackle Detection In Lung Sounds Using Transfer Learning And Multi-Input
Convolitional Neural Networks
- Title(参考訳): 伝達学習と多入力畳み込みニューラルネットワークを用いた肺音のき裂検出
- Authors: Truc Nguyen and Franz Pernkopf
- Abstract要約: 肺音のクラックル検出における記録設定のミスマッチに対処するために,転送学習を用いる。
単一の入力畳み込みニューラルネットワーク(CNN)モデルは、肺音の最大の公開データベースであるIBHI 2017を使用して、ソースドメインで事前に訓練されます。
マルチインプットモデルは, クラックや正常な肺音を分類するために, 自己収集肺音データベースのターゲット領域に微調整される。
- 参考スコア(独自算出の注目度): 26.399917342840265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large annotated lung sound databases are publicly available and might be used
to train algorithms for diagnosis systems. However, it might be a challenge to
develop a well-performing algorithm for small non-public data, which have only
a few subjects and show differences in recording devices and setup. In this
paper, we use transfer learning to tackle the mismatch of the recording setup.
This allows us to transfer knowledge from one dataset to another dataset for
crackle detection in lung sounds. In particular, a single input convolutional
neural network (CNN) model is pre-trained on a source domain using ICBHI 2017,
the largest publicly available database of lung sounds. We use log-mel
spectrogram features of respiratory cycles of lung sounds. The pre-trained
network is used to build a multi-input CNN model, which shares the same network
architecture for respiratory cycles and their corresponding respiratory phases.
The multi-input model is then fine-tuned on the target domain of our
self-collected lung sound database for classifying crackles and normal lung
sounds. Our experimental results show significant performance improvements of
9.84% (absolute) in F-score on the target domain using the multi-input CNN
model based on transfer learning for crackle detection in adventitious lung
sound classification task.
- Abstract(参考訳): 大規模な注釈付き肺音データベースが公開されており、診断システムのアルゴリズムのトレーニングに使用することができる。
しかし、少数の主題しか持たず、記録装置と設定の違いを示す小さな非公開データに対して、良好なパフォーマンスのアルゴリズムを開発することは難しいかもしれない。
本稿では,記録設定のミスマッチに対処するために転送学習を用いる。
これにより、あるデータセットから別のデータセットに知識を転送し、肺の音のひび割れを検出する。
特に、単一の入力畳み込みニューラルネットワーク(cnn)モデルは、最も広く入手可能な肺音データベースであるicbhi 2017を使用して、ソースドメイン上で事前トレーニングされる。
肺音の呼吸周期の特徴をlog-mel spectrogramを用いて解析した。
プレトレーニングネットワークは、呼吸サイクルとそれに対応する呼吸フェーズのネットワークアーキテクチャを共有するマルチ入力CNNモデルを構築するために使用される。
マルチインプットモデルは, クラックや正常な肺音を分類するために, 自己収集肺音データベースのターゲット領域に微調整される。
実験の結果,多入力cnnモデルを用いたf-scoreの9.84%(絶対値)の有意な性能改善が得られた。
関連論文リスト
- Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - Deep Feature Learning for Medical Acoustics [78.56998585396421]
本研究の目的は,医療音響の課題における学習内容の比較である。
ヒトの呼吸音と心臓の鼓動を健康的または病態の影響の2つのカテゴリに分類する枠組みが実装されている。
論文 参考訳(メタデータ) (2022-08-05T10:39:37Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Quantification of pulmonary involvement in COVID-19 pneumonia by means
of a cascade oftwo U-nets: training and assessment on multipledatasets using
different annotation criteria [83.83783947027392]
本研究は、新型コロナウイルスの肺病変の同定、セグメント化、定量化のために人工知能(AI)を活用することを目的とする。
2つのU-netのカスケードをベースとした自動解析パイプラインLungQuantシステムを開発した。
LungQuantシステムにおけるCT-Severity Score(CT-SS)の精度も評価した。
論文 参考訳(メタデータ) (2021-05-06T10:21:28Z) - Benchmarking of eight recurrent neural network variants for breath phase
and adventitious sound detection on a self-developed open-access lung sound
database-HF_Lung_V1 [0.35775620736088914]
頑健なコンピュータ化された呼吸音解析アルゴリズムは、まだ実用化には至っていない。
我々は,9,765個の肺音の音声ファイルからなる肺音データベース(HF_Lung_V1)を開発した。
その結果,これらのモデルは肺の音像解析において十分な性能を示した。
論文 参考訳(メタデータ) (2021-02-05T08:21:28Z) - Deep LF-Net: Semantic Lung Segmentation from Indian Chest Radiographs
Including Severely Unhealthy Images [5.826056983051642]
胸部X線写真(胸部X線、CxR)は、様々な肺疾患の診断において重要な役割を担っている。
正確な肺分画は、健康問題、年齢、性別による肺の形状のばらつきから非常に困難である。
提案研究は,CxRからの肺の正確な分画に対する効率的な深部畳み込みニューラルネットワークの使用について検討した。
論文 参考訳(メタデータ) (2020-11-19T07:21:02Z) - RespireNet: A Deep Neural Network for Accurately Detecting Abnormal Lung
Sounds in Limited Data Setting [9.175146418979324]
我々は,小型データセットを効率的に利用する新しい手法とともに,単純なCNNベースのモデルを提案する。
我々は4クラス分類における最先端の成績を2.2%改善した。
論文 参考訳(メタデータ) (2020-10-31T05:53:37Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - Deep Neural Network for Respiratory Sound Classification in Wearable
Devices Enabled by Patient Specific Model Tuning [2.8935588665357077]
メル・スペクトログラムに基づく呼吸音を分類する深層CNN-RNNモデルを提案する。
また、まず呼吸器患者をスクリーニングし、次いで患者固有の分類モデルを構築する患者特化モデルチューニング戦略を実装した。
The proposed hybrid CNN-RNN model achieves 66.31% on four-class classification of breath cycles for ICBHI'17 scientific challenge respiratory sound database。
論文 参考訳(メタデータ) (2020-04-16T15:42:58Z) - CNN-MoE based framework for classification of respiratory anomalies and
lung disease detection [33.45087488971683]
本稿では,聴取分析のための頑健な深層学習フレームワークを提示し,検討する。
呼吸周期の異常を分類し、呼吸音の記録から病気を検出することを目的としている。
論文 参考訳(メタデータ) (2020-04-04T21:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。