論文の概要: Crackle Detection In Lung Sounds Using Transfer Learning And Multi-Input
Convolitional Neural Networks
- arxiv url: http://arxiv.org/abs/2104.14921v1
- Date: Fri, 30 Apr 2021 11:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 19:10:11.031222
- Title: Crackle Detection In Lung Sounds Using Transfer Learning And Multi-Input
Convolitional Neural Networks
- Title(参考訳): 伝達学習と多入力畳み込みニューラルネットワークを用いた肺音のき裂検出
- Authors: Truc Nguyen and Franz Pernkopf
- Abstract要約: 肺音のクラックル検出における記録設定のミスマッチに対処するために,転送学習を用いる。
単一の入力畳み込みニューラルネットワーク(CNN)モデルは、肺音の最大の公開データベースであるIBHI 2017を使用して、ソースドメインで事前に訓練されます。
マルチインプットモデルは, クラックや正常な肺音を分類するために, 自己収集肺音データベースのターゲット領域に微調整される。
- 参考スコア(独自算出の注目度): 26.399917342840265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large annotated lung sound databases are publicly available and might be used
to train algorithms for diagnosis systems. However, it might be a challenge to
develop a well-performing algorithm for small non-public data, which have only
a few subjects and show differences in recording devices and setup. In this
paper, we use transfer learning to tackle the mismatch of the recording setup.
This allows us to transfer knowledge from one dataset to another dataset for
crackle detection in lung sounds. In particular, a single input convolutional
neural network (CNN) model is pre-trained on a source domain using ICBHI 2017,
the largest publicly available database of lung sounds. We use log-mel
spectrogram features of respiratory cycles of lung sounds. The pre-trained
network is used to build a multi-input CNN model, which shares the same network
architecture for respiratory cycles and their corresponding respiratory phases.
The multi-input model is then fine-tuned on the target domain of our
self-collected lung sound database for classifying crackles and normal lung
sounds. Our experimental results show significant performance improvements of
9.84% (absolute) in F-score on the target domain using the multi-input CNN
model based on transfer learning for crackle detection in adventitious lung
sound classification task.
- Abstract(参考訳): 大規模な注釈付き肺音データベースが公開されており、診断システムのアルゴリズムのトレーニングに使用することができる。
しかし、少数の主題しか持たず、記録装置と設定の違いを示す小さな非公開データに対して、良好なパフォーマンスのアルゴリズムを開発することは難しいかもしれない。
本稿では,記録設定のミスマッチに対処するために転送学習を用いる。
これにより、あるデータセットから別のデータセットに知識を転送し、肺の音のひび割れを検出する。
特に、単一の入力畳み込みニューラルネットワーク(cnn)モデルは、最も広く入手可能な肺音データベースであるicbhi 2017を使用して、ソースドメイン上で事前トレーニングされる。
肺音の呼吸周期の特徴をlog-mel spectrogramを用いて解析した。
プレトレーニングネットワークは、呼吸サイクルとそれに対応する呼吸フェーズのネットワークアーキテクチャを共有するマルチ入力CNNモデルを構築するために使用される。
マルチインプットモデルは, クラックや正常な肺音を分類するために, 自己収集肺音データベースのターゲット領域に微調整される。
実験の結果,多入力cnnモデルを用いたf-scoreの9.84%(絶対値)の有意な性能改善が得られた。
関連論文リスト
- Multi-Task Learning for Lung sound & Lung disease classification [0.0]
肺音と肺疾患の同時分類にマルチタスク学習(MTL)を用いる新しい手法を提案する。
提案モデルでは,2次元CNN,ResNet50,MobileNet,Densenetの4種類の深層学習モデルを用いて,肺の音響記録から関連する特徴を抽出する。
MTL for MobileNetモデルは, 肺の音響解析では74%, 肺疾患分類では91%の精度で, 他のモデルよりも良好な性能を示した。
論文 参考訳(メタデータ) (2024-04-05T06:15:58Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - Deep Feature Learning for Medical Acoustics [78.56998585396421]
本研究の目的は,医療音響の課題における学習内容の比較である。
ヒトの呼吸音と心臓の鼓動を健康的または病態の影響の2つのカテゴリに分類する枠組みが実装されている。
論文 参考訳(メタデータ) (2022-08-05T10:39:37Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Benchmarking of eight recurrent neural network variants for breath phase
and adventitious sound detection on a self-developed open-access lung sound
database-HF_Lung_V1 [0.35775620736088914]
頑健なコンピュータ化された呼吸音解析アルゴリズムは、まだ実用化には至っていない。
我々は,9,765個の肺音の音声ファイルからなる肺音データベース(HF_Lung_V1)を開発した。
その結果,これらのモデルは肺の音像解析において十分な性能を示した。
論文 参考訳(メタデータ) (2021-02-05T08:21:28Z) - Deep LF-Net: Semantic Lung Segmentation from Indian Chest Radiographs
Including Severely Unhealthy Images [5.826056983051642]
胸部X線写真(胸部X線、CxR)は、様々な肺疾患の診断において重要な役割を担っている。
正確な肺分画は、健康問題、年齢、性別による肺の形状のばらつきから非常に困難である。
提案研究は,CxRからの肺の正確な分画に対する効率的な深部畳み込みニューラルネットワークの使用について検討した。
論文 参考訳(メタデータ) (2020-11-19T07:21:02Z) - RespireNet: A Deep Neural Network for Accurately Detecting Abnormal Lung
Sounds in Limited Data Setting [9.175146418979324]
我々は,小型データセットを効率的に利用する新しい手法とともに,単純なCNNベースのモデルを提案する。
我々は4クラス分類における最先端の成績を2.2%改善した。
論文 参考訳(メタデータ) (2020-10-31T05:53:37Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - Deep Neural Network for Respiratory Sound Classification in Wearable
Devices Enabled by Patient Specific Model Tuning [2.8935588665357077]
メル・スペクトログラムに基づく呼吸音を分類する深層CNN-RNNモデルを提案する。
また、まず呼吸器患者をスクリーニングし、次いで患者固有の分類モデルを構築する患者特化モデルチューニング戦略を実装した。
The proposed hybrid CNN-RNN model achieves 66.31% on four-class classification of breath cycles for ICBHI'17 scientific challenge respiratory sound database。
論文 参考訳(メタデータ) (2020-04-16T15:42:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。