論文の概要: Machine Learning based COVID-19 Detection from Smartphone Recordings:
Cough, Breath and Speech
- arxiv url: http://arxiv.org/abs/2104.02477v1
- Date: Fri, 2 Apr 2021 23:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 03:50:48.930045
- Title: Machine Learning based COVID-19 Detection from Smartphone Recordings:
Cough, Breath and Speech
- Title(参考訳): スマートフォン記録からの機械学習によるCOVID-19検出:カフ、ブレス、スピーチ
- Authors: Madhurananda Pahar, Thomas Niesler
- Abstract要約: 本研究は, スマートフォンから発声, 呼吸, 発声を自動検出する実験である。
coswara と compare の2つのデータセットで実験を行い,その内容は,うなずき,呼吸,発話の記録を含む。
発声音声では、covid-19の最も強力な署名は、息とスピーチに続くものだと結論付けている。
- 参考スコア(独自算出の注目度): 7.908757488948712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an experimental investigation into the automatic detection of
COVID-19 from smartphone recordings of coughs, breaths and speech. This type of
screening is attractive because it is non-contact, does not require specialist
medical expertise or laboratory facilities and can easily be deployed on
inexpensive consumer hardware. We base our experiments on two datasets, Coswara
and ComParE, containing recordings of coughing, breathing and speech from
subjects around the globe. We have considered seven machine learning
classifiers and all of them are trained and evaluated using leave-p-out
cross-validation. For the Coswara data, the highest AUC of 0.92 was achieved
using a Resnet50 architecture on breaths. For the ComParE data, the highest AUC
of 0.93 was achieved using a k-nearest neighbours (KNN) classifier on cough
recordings after selecting the best 12 features using sequential forward
selection (SFS) and the highest AUC of 0.91 was also achieved on speech by a
multilayer perceptron (MLP) when using SFS to select the best 23 features. We
conclude that among all vocal audio, coughs carry the strongest COVID-19
signature followed by breath and speech. Although these signatures are not
perceivable by human ear, machine learning based COVID-19 detection is possible
from vocal audio recorded via smartphone.
- Abstract(参考訳): 本研究は, スマートフォンから発声, 呼吸, 発声を自動検出する実験である。
この種のスクリーニングは、非接触性であり、専門的な医学的専門知識や検査施設を必要としないため、安価な消費者向けハードウェアに容易にデプロイできるため、魅力的である。
coswara と comparison の2つのデータセットに基づいて実験を行い,世界中の被験者から寄せ声,呼吸,発話の録音を行った。
我々は,機械学習分類器を7つ検討し,その全てを学習し,相互検証を用いて評価した。
coswaraのデータでは、resnet50アーキテクチャを用いて最大0.92のaucを達成した。
ComParEデータでは, 最上位のAUCは, 最上位12個の特徴を逐次前方選択(SFS)を用いて選択した後, コー記録上のk-nearest neighbors(KNN)分類器を用いて達成され, 最上位のAUCはSFSを用いて最上位23個の特徴を選択する際に, 多層パーセプトロン(MLP)により音声上でも達成された。
発声音声では、covid-19の最も強力な署名は、息とスピーチに続くものだと結論付けている。
これらのシグネチャは人間の耳では認識できないが、スマートフォンで録音された音声から機械学習によるCOVID-19検出が可能である。
関連論文リスト
- EARS: An Anechoic Fullband Speech Dataset Benchmarked for Speech Enhancement and Dereverberation [83.29199726650899]
EARSデータセットは、さまざまなバックグラウンドから107人の話者で構成され、100時間のクリーンで無響な音声データである。
データセットには、感情的なスピーチ、異なる読み方、非言語音、会話の自由なスピーチなど、幅広い種類の話し方が含まれている。
提案手法は,データセット上での音声強調とデバーベレーションのための様々な手法をベンチマークし,その性能を測定値を用いて評価する。
論文 参考訳(メタデータ) (2024-06-10T11:28:29Z) - Fully Automated End-to-End Fake Audio Detection [57.78459588263812]
本稿では,完全自動エンドツーエンド音声検出手法を提案する。
まず、wav2vec事前学習モデルを用いて、音声の高レベル表現を得る。
ネットワーク構造には, Light-DARTS という異種アーキテクチャサーチ (DARTS) の修正版を用いる。
論文 参考訳(メタデータ) (2022-08-20T06:46:55Z) - Deep Feature Learning for Medical Acoustics [78.56998585396421]
本研究の目的は,医療音響の課題における学習内容の比較である。
ヒトの呼吸音と心臓の鼓動を健康的または病態の影響の2つのカテゴリに分類する枠組みが実装されている。
論文 参考訳(メタデータ) (2022-08-05T10:39:37Z) - On the pragmatism of using binary classifiers over data intensive neural
network classifiers for detection of COVID-19 from voice [34.553128768223615]
音声からCOVID-19を検出するには、カスタムメイドの非標準機能や複雑なニューラルネットワーク分類器を必要としない。
臨床現場で収集・校正された人為的なデータセットからこれを実証する。
論文 参考訳(メタデータ) (2022-04-11T00:19:14Z) - CI-AVSR: A Cantonese Audio-Visual Speech Dataset for In-car Command
Recognition [91.33781557979819]
新しいデータセットであるCantonese In-car Audio-Visual Speech Recognition (CI-AVSR)を導入する。
カントン語話者30人が記録した200の車載コマンドの4,984サンプル(8.3時間)で構成されている。
当社のデータセットのクリーンバージョンと拡張バージョンの両方について、詳細な統計情報を提供しています。
論文 参考訳(メタデータ) (2022-01-11T06:32:12Z) - Project Achoo: A Practical Model and Application for COVID-19 Detection
from Recordings of Breath, Voice, and Cough [55.45063681652457]
コンシューマー端末で録音した音声を用いて、新型コロナウイルスを迅速にトリアージする機械学習手法を提案する。
この手法は,信号処理手法と微調整深層学習ネットワークを組み合わせることで,信号の識別,コークス検出,分類を行う手法を提供する。
我々はまた、症状チェッカーと音声、息、うず信号を使って新型コロナウイルスの感染を検知するモバイルアプリケーションを開発し、展開した。
論文 参考訳(メタデータ) (2021-07-12T08:07:56Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - COVID-19 Cough Classification using Machine Learning and Global
Smartphone Recordings [6.441511459132334]
本稿では、スマートフォン上で記録された新型コロナウイルス陰性および健康性の両方から、新型コロナウイルス陽性を識別できる機械学習ベースのコークス分類器を提案する。
この種のスクリーニングは非接触で容易に適用でき、テストセンターでの負荷軽減や送信制限に役立つ。
論文 参考訳(メタデータ) (2020-12-02T13:35:42Z) - COVID-19 Patient Detection from Telephone Quality Speech Data [4.726777092009554]
本研究は、音声データに新型コロナウイルスに関する手がかりが存在するかどうかを調査する。
このデータセット上のSVM分類器は88.6%の精度とF1スコア92.7%の精度を達成することができる。
鼻音、停止音、中母音などの一部の電話クラスは、2つのクラスを他のクラスよりもよく区別することができる。
論文 参考訳(メタデータ) (2020-11-09T10:16:08Z) - Exploring Automatic Diagnosis of COVID-19 from Crowdsourced Respiratory
Sound Data [20.318414518283618]
新型コロナウイルスの診断を支援するため,大規模クラウドソースで収集した呼吸音のデータセット上でのデータ解析を行った。
以上の結果から、単純なバイナリ機械学習分類器さえも、正常な分類と新型コロナウイルスの音を正しく分類できることが示唆された。
この研究は、自動的な呼吸パターンが事前スクリーニング信号としてどのように使用されるか、さらに調査するための扉を開く。
論文 参考訳(メタデータ) (2020-06-10T16:13:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。