論文の概要: Automatic Tuberculosis and COVID-19 cough classification using deep
learning
- arxiv url: http://arxiv.org/abs/2205.05480v1
- Date: Wed, 11 May 2022 13:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 01:41:43.626212
- Title: Automatic Tuberculosis and COVID-19 cough classification using deep
learning
- Title(参考訳): 深層学習による結核とcovid-19の分類
- Authors: Madhurananda Pahar, Marisa Klopper, Byron Reeve, Rob Warren, Grant
Theron, Andreas Diacon and Thomas Niesler
- Abstract要約: TBとCOVID-19はどちらも呼吸器疾患で、有意な症状を呈し、毎年数千人の命が失われている。
データは、CNN、LSTM、Resnet50の訓練および評価に使用された1.68時間TBの生地、18.54分、47人のTB患者から1.69時間の健康的な生地、229人のCOVID-19患者、1498人の健康的な患者を含む。
- 参考スコア(独自算出の注目度): 6.970069661775001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a deep learning based automatic cough classifier which can
discriminate tuberculosis (TB) coughs from COVID-19 coughs and healthy coughs.
Both TB and COVID-19 are respiratory disease, have cough as a predominant
symptom and claim thousands of lives each year. The cough audio recordings were
collected at both indoor and outdoor settings and also uploaded using
smartphones from subjects around the globe, thus contain various levels of
noise. This cough data include 1.68 hours of TB coughs, 18.54 minutes of
COVID-19 coughs and 1.69 hours of healthy coughs from 47 TB patients, 229
COVID-19 patients and 1498 healthy patients and were used to train and evaluate
a CNN, LSTM and Resnet50. These three deep architectures were also pre-trained
on 2.14 hours of sneeze, 2.91 hours of speech and 2.79 hours of noise for
improved performance. The class-imbalance in our dataset was addressed by using
SMOTE data balancing technique and using performance metrics such as F1-score
and AUC. Our study shows that the highest F1-scores of 0.9259 and 0.8631 have
been achieved from a pre-trained Resnet50 for two-class (TB vs COVID-19) and
three-class (TB vs COVID-19 vs healthy) cough classification tasks,
respectively. The application of deep transfer learning has improved the
classifiers' performance and makes them more robust as they generalise better
over the cross-validation folds. Their performances exceed the TB triage test
requirements set by the world health organisation (WHO). The features producing
the best performance contain higher order of MFCCs suggesting that the
differences between TB and COVID-19 coughs are not perceivable by the human
ear. This type of cough audio classification is non-contact, cost-effective and
can easily be deployed on a smartphone, thus it can be an excellent tool for
both TB and COVID-19 screening.
- Abstract(参考訳): そこで本研究では,結核(tb)をcovid-19(covid-19-coough)と健康なcough(coough)と区別できる,ディープラーニングを用いた自動cough分類器を提案する。
TBとCOVID-19はどちらも呼吸器疾患で、有意な症状を呈し、毎年数千人の命が失われている。
coughオーディオ録音は、屋内と屋外の両方で収集され、世界中の被験者からスマートフォンを使ってアップロードされた。
データは、CNN、LSTM、Resnet50の訓練および評価に使用された1.68時間TBの生地、18.54分、47人のTB患者から1.69時間の健康的な生地、229人のCOVID-19患者、1498人の健康的な患者を含む。
これら3つの深い建築は、2.14時間のくしゃみ、2.91時間のスピーチ、2.79時間のノイズで事前訓練された。
SMOTEデータバランシング技術とF1スコアやAUCなどのパフォーマンス指標を用いて,データセットのクラス不均衡に対処した。
その結果,2級(tb対covid-19)のresnet50と3級(tb対covid-19対健康)のcough分類タスクから,0.9259と0.8631のf1-scoreの最高値が得られた。
ディープトランスファー学習の適用により、分類器の性能が向上し、クロスバリデーション・フォールドを一般化するにつれて、より堅牢になった。
彼らの業績は世界保健機関(WHO)が設定したTBトリアージテストの要求を上回る。
最高のパフォーマンスを生み出す特徴は、ヒトの耳によってTBとCOVID-19の生地の違いが認識できないことを示唆するMFCCのより高い順序を含んでいる。
このタイプのcoughオーディオ分類は非接触でコスト効率が高く、スマートフォンに簡単にデプロイできるため、tbとcovid-19スクリーニングの両方に優れたツールとなる。
関連論文リスト
- Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Cough Detection Using Selected Informative Features from Audio Signals [24.829135966052142]
モデルは、ESC-50データセットと自己記録コークス記録を組み合わせたデータセットでトレーニングされる。
最高のコー検出モデルは、それぞれ94.9%、97.1%、93.1%、0.95の精度、リコール、精度、F1スコアを実現する。
論文 参考訳(メタデータ) (2021-08-07T23:05:18Z) - Machine Learning based COVID-19 Detection from Smartphone Recordings:
Cough, Breath and Speech [7.908757488948712]
本研究は, スマートフォンから発声, 呼吸, 発声を自動検出する実験である。
coswara と compare の2つのデータセットで実験を行い,その内容は,うなずき,呼吸,発話の記録を含む。
発声音声では、covid-19の最も強力な署名は、息とスピーチに続くものだと結論付けている。
論文 参考訳(メタデータ) (2021-04-02T23:21:24Z) - Automatic Cough Classification for Tuberculosis Screening in a
Real-World Environment [5.6663315405998365]
結核(tb)患者と他の肺疾患患者が発する発声音とを自動的に判別することが可能であることを示す第1報を報告する。
本実験は, TB患者16名, 呼吸器疾患患者33名, TB以外の患者33名を対象に, 実世界の診療所で得られたコークス記録のデータセットに基づいて行った。
以上の結果から, 音素の自動分類は, TBの低コストで展開可能なフロントラインスクリーニングの手段として有望であり, 開発途上国のTB負荷に大きく貢献すると考えられる。
論文 参考訳(メタデータ) (2021-03-23T15:03:52Z) - A novel multiple instance learning framework for COVID-19 severity
assessment via data augmentation and self-supervised learning [64.90342559393275]
新型コロナウイルスの重症度を迅速かつ正確に評価する方法は、世界中の何百万人もの人々がパンデミックに苦しんでいる場合に必要不可欠な問題だ。
CT画像による新型コロナウイルスの重症度自動評価を妨害する可能性のある、弱いアノテーションと不十分なデータという2つの問題があることを観察する。
平均精度は95.8%で、感度は93.6%、特異性は96.4%で、前作より優れていた。
論文 参考訳(メタデータ) (2021-02-07T16:30:18Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - COVID-19 Cough Classification using Machine Learning and Global
Smartphone Recordings [6.441511459132334]
本稿では、スマートフォン上で記録された新型コロナウイルス陰性および健康性の両方から、新型コロナウイルス陽性を識別できる機械学習ベースのコークス分類器を提案する。
この種のスクリーニングは非接触で容易に適用でき、テストセンターでの負荷軽減や送信制限に役立つ。
論文 参考訳(メタデータ) (2020-12-02T13:35:42Z) - M3Lung-Sys: A Deep Learning System for Multi-Class Lung Pneumonia
Screening from CT Imaging [85.00066186644466]
マルチタスク型マルチスライス深層学習システム(M3Lung-Sys)を提案する。
COVID-19とHealthy, H1N1, CAPとの鑑別に加えて, M3 Lung-Sysも関連病変の部位を特定できる。
論文 参考訳(メタデータ) (2020-10-07T06:22:24Z) - Pay Attention to the cough: Early Diagnosis of COVID-19 using
Interpretable Symptoms Embeddings with Cough Sound Signal Processing [0.0]
新型コロナウイルス(SARS-CoV-2によるコロナウイルスのパンデミック)は、人類にとって恐ろしく壊滅的な大惨事を引き起こしている。
新型コロナウイルスの現在の診断は、RT-PCR(Reverse-Transcription Polymer Chain Reaction)テストによって行われる。
音声の特徴と症状メタデータに基づいて、解釈可能で新型コロナウイルスの診断AIフレームワークを開発、開発する。
論文 参考訳(メタデータ) (2020-10-06T01:22:50Z) - Predicting COVID-19 Pneumonia Severity on Chest X-ray with Deep Learning [57.00601760750389]
前頭部胸部X線画像の重症度予測モデルを提案する。
このようなツールは、エスカレーションやケアの非エスカレーションに使用できる新型コロナウイルスの肺感染症の重症度を測定することができる。
論文 参考訳(メタデータ) (2020-05-24T23:13:16Z) - Severity Assessment of Coronavirus Disease 2019 (COVID-19) Using
Quantitative Features from Chest CT Images [54.919022945740515]
本研究の目的は,胸部CT画像に基づく新型コロナウイルスの重症度自動評価(非重症度または重症度)を実現することである。
ランダム・フォレスト(RF)モデルは、量的特徴に基づいて重症度(非重症度または重症度)を評価するために訓練される。
新型コロナウイルスの重症度を反映する可能性のあるいくつかの定量的特徴が明らかになった。
論文 参考訳(メタデータ) (2020-03-26T15:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。