論文の概要: Automatic Tuberculosis and COVID-19 cough classification using deep
learning
- arxiv url: http://arxiv.org/abs/2205.05480v1
- Date: Wed, 11 May 2022 13:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 01:41:43.626212
- Title: Automatic Tuberculosis and COVID-19 cough classification using deep
learning
- Title(参考訳): 深層学習による結核とcovid-19の分類
- Authors: Madhurananda Pahar, Marisa Klopper, Byron Reeve, Rob Warren, Grant
Theron, Andreas Diacon and Thomas Niesler
- Abstract要約: TBとCOVID-19はどちらも呼吸器疾患で、有意な症状を呈し、毎年数千人の命が失われている。
データは、CNN、LSTM、Resnet50の訓練および評価に使用された1.68時間TBの生地、18.54分、47人のTB患者から1.69時間の健康的な生地、229人のCOVID-19患者、1498人の健康的な患者を含む。
- 参考スコア(独自算出の注目度): 6.970069661775001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a deep learning based automatic cough classifier which can
discriminate tuberculosis (TB) coughs from COVID-19 coughs and healthy coughs.
Both TB and COVID-19 are respiratory disease, have cough as a predominant
symptom and claim thousands of lives each year. The cough audio recordings were
collected at both indoor and outdoor settings and also uploaded using
smartphones from subjects around the globe, thus contain various levels of
noise. This cough data include 1.68 hours of TB coughs, 18.54 minutes of
COVID-19 coughs and 1.69 hours of healthy coughs from 47 TB patients, 229
COVID-19 patients and 1498 healthy patients and were used to train and evaluate
a CNN, LSTM and Resnet50. These three deep architectures were also pre-trained
on 2.14 hours of sneeze, 2.91 hours of speech and 2.79 hours of noise for
improved performance. The class-imbalance in our dataset was addressed by using
SMOTE data balancing technique and using performance metrics such as F1-score
and AUC. Our study shows that the highest F1-scores of 0.9259 and 0.8631 have
been achieved from a pre-trained Resnet50 for two-class (TB vs COVID-19) and
three-class (TB vs COVID-19 vs healthy) cough classification tasks,
respectively. The application of deep transfer learning has improved the
classifiers' performance and makes them more robust as they generalise better
over the cross-validation folds. Their performances exceed the TB triage test
requirements set by the world health organisation (WHO). The features producing
the best performance contain higher order of MFCCs suggesting that the
differences between TB and COVID-19 coughs are not perceivable by the human
ear. This type of cough audio classification is non-contact, cost-effective and
can easily be deployed on a smartphone, thus it can be an excellent tool for
both TB and COVID-19 screening.
- Abstract(参考訳): そこで本研究では,結核(tb)をcovid-19(covid-19-coough)と健康なcough(coough)と区別できる,ディープラーニングを用いた自動cough分類器を提案する。
TBとCOVID-19はどちらも呼吸器疾患で、有意な症状を呈し、毎年数千人の命が失われている。
coughオーディオ録音は、屋内と屋外の両方で収集され、世界中の被験者からスマートフォンを使ってアップロードされた。
データは、CNN、LSTM、Resnet50の訓練および評価に使用された1.68時間TBの生地、18.54分、47人のTB患者から1.69時間の健康的な生地、229人のCOVID-19患者、1498人の健康的な患者を含む。
これら3つの深い建築は、2.14時間のくしゃみ、2.91時間のスピーチ、2.79時間のノイズで事前訓練された。
SMOTEデータバランシング技術とF1スコアやAUCなどのパフォーマンス指標を用いて,データセットのクラス不均衡に対処した。
その結果,2級(tb対covid-19)のresnet50と3級(tb対covid-19対健康)のcough分類タスクから,0.9259と0.8631のf1-scoreの最高値が得られた。
ディープトランスファー学習の適用により、分類器の性能が向上し、クロスバリデーション・フォールドを一般化するにつれて、より堅牢になった。
彼らの業績は世界保健機関(WHO)が設定したTBトリアージテストの要求を上回る。
最高のパフォーマンスを生み出す特徴は、ヒトの耳によってTBとCOVID-19の生地の違いが認識できないことを示唆するMFCCのより高い順序を含んでいる。
このタイプのcoughオーディオ分類は非接触でコスト効率が高く、スマートフォンに簡単にデプロイできるため、tbとcovid-19スクリーニングの両方に優れたツールとなる。
- 全文 参考訳へのリンク
関連論文リスト
- A Generic Deep Learning Based Cough Analysis System from Clinically
Validated Samples for Point-of-Need Covid-19 Test and Severity Levels [85.41238731489939]
臨床検体8,380名を対象に,Covid-19の迅速一次スクリーニングツールの検出性能について検討した。
提案手法は,経験的モード分解(EMD)に基づくアルゴリズムであり,その後に音声特徴量に基づく分類を行う。
DeepCoughの2つの異なるバージョン、すなわちDeepCough2DとDeepCough3Dのテンソル次元について検討した。
論文 参考訳(メタデータ) (2021-11-10T19:39:26Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Cough Detection Using Selected Informative Features from Audio Signals [24.829135966052142]
モデルは、ESC-50データセットと自己記録コークス記録を組み合わせたデータセットでトレーニングされる。
最高のコー検出モデルは、それぞれ94.9%、97.1%、93.1%、0.95の精度、リコール、精度、F1スコアを実現する。
論文 参考訳(メタデータ) (2021-08-07T23:05:18Z) - Quantification of pulmonary involvement in COVID-19 pneumonia by means
of a cascade oftwo U-nets: training and assessment on multipledatasets using
different annotation criteria [83.83783947027392]
本研究は、新型コロナウイルスの肺病変の同定、セグメント化、定量化のために人工知能(AI)を活用することを目的とする。
2つのU-netのカスケードをベースとした自動解析パイプラインLungQuantシステムを開発した。
LungQuantシステムにおけるCT-Severity Score(CT-SS)の精度も評価した。
論文 参考訳(メタデータ) (2021-05-06T10:21:28Z) - COVID-Net CT-S: 3D Convolutional Neural Network Architectures for
COVID-19 Severity Assessment using Chest CT Images [85.00197722241262]
我々は、新型コロナウイルス感染による肺疾患の重症度を予測するための深層畳み込みニューラルネットワークであるCOVID-Net CT-Sを紹介した。
3D残像設計を利用して、新型コロナウイルスの肺疾患の重症度を特徴付ける容積的視覚指標を学習する。
論文 参考訳(メタデータ) (2021-05-04T04:44:41Z) - Machine Learning based COVID-19 Detection from Smartphone Recordings:
Cough, Breath and Speech [7.908757488948712]
本研究は, スマートフォンから発声, 呼吸, 発声を自動検出する実験である。
coswara と compare の2つのデータセットで実験を行い,その内容は,うなずき,呼吸,発話の記録を含む。
発声音声では、covid-19の最も強力な署名は、息とスピーチに続くものだと結論付けている。
論文 参考訳(メタデータ) (2021-04-02T23:21:24Z) - Automatic Cough Classification for Tuberculosis Screening in a
Real-World Environment [5.6663315405998365]
結核(tb)患者と他の肺疾患患者が発する発声音とを自動的に判別することが可能であることを示す第1報を報告する。
本実験は, TB患者16名, 呼吸器疾患患者33名, TB以外の患者33名を対象に, 実世界の診療所で得られたコークス記録のデータセットに基づいて行った。
以上の結果から, 音素の自動分類は, TBの低コストで展開可能なフロントラインスクリーニングの手段として有望であり, 開発途上国のTB負荷に大きく貢献すると考えられる。
論文 参考訳(メタデータ) (2021-03-23T15:03:52Z) - A novel multiple instance learning framework for COVID-19 severity
assessment via data augmentation and self-supervised learning [64.90342559393275]
新型コロナウイルスの重症度を迅速かつ正確に評価する方法は、世界中の何百万人もの人々がパンデミックに苦しんでいる場合に必要不可欠な問題だ。
CT画像による新型コロナウイルスの重症度自動評価を妨害する可能性のある、弱いアノテーションと不十分なデータという2つの問題があることを観察する。
平均精度は95.8%で、感度は93.6%、特異性は96.4%で、前作より優れていた。
論文 参考訳(メタデータ) (2021-02-07T16:30:18Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - COVID-19 Cough Classification using Machine Learning and Global
Smartphone Recordings [6.441511459132334]
本稿では、スマートフォン上で記録された新型コロナウイルス陰性および健康性の両方から、新型コロナウイルス陽性を識別できる機械学習ベースのコークス分類器を提案する。
この種のスクリーニングは非接触で容易に適用でき、テストセンターでの負荷軽減や送信制限に役立つ。
論文 参考訳(メタデータ) (2020-12-02T13:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。