論文の概要: COVID-19 Patient Detection from Telephone Quality Speech Data
- arxiv url: http://arxiv.org/abs/2011.04299v1
- Date: Mon, 9 Nov 2020 10:16:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 02:37:06.892826
- Title: COVID-19 Patient Detection from Telephone Quality Speech Data
- Title(参考訳): 電話品質音声データからのcovid-19患者検出
- Authors: Kotra Venkata Sai Ritwik, Shareef Babu Kalluri, Deepu Vijayasenan
- Abstract要約: 本研究は、音声データに新型コロナウイルスに関する手がかりが存在するかどうかを調査する。
このデータセット上のSVM分類器は88.6%の精度とF1スコア92.7%の精度を達成することができる。
鼻音、停止音、中母音などの一部の電話クラスは、2つのクラスを他のクラスよりもよく区別することができる。
- 参考スコア(独自算出の注目度): 4.726777092009554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we try to investigate the presence of cues about the COVID-19
disease in the speech data. We use an approach that is similar to speaker
recognition. Each sentence is represented as super vectors of short term Mel
filter bank features for each phoneme. These features are used to learn a
two-class classifier to separate the COVID-19 speech from normal. Experiments
on a small dataset collected from YouTube videos show that an SVM classifier on
this dataset is able to achieve an accuracy of 88.6% and an F1-Score of 92.7%.
Further investigation reveals that some phone classes, such as nasals, stops,
and mid vowels can distinguish the two classes better than the others.
- Abstract(参考訳): 本稿では,スピーチデータにおけるcovid-19病に関する手がかりの存在について検討する。
我々は話者認識に類似したアプローチを用いる。
各文は、各音素に対する短期メルフィルタバンク特徴のスーパーベクトルとして表現される。
これらの特徴は、新型コロナウイルスの音声を正常から分離する2クラス分類器を学ぶために使用される。
YouTubeビデオから収集された小さなデータセットの実験によると、このデータセット上のSVM分類器は88.6%の精度とF1スコア92.7%の精度を達成することができる。
さらなる調査により、鼻音、停止音、中母音などの一部の電話クラスが、他のクラスよりもよく区別できることが判明した。
関連論文リスト
- SLICER: Learning universal audio representations using low-resource
self-supervised pre-training [53.06337011259031]
ラベルなし音声データに事前学習エンコーダを組み込むための自己指導型学習手法を提案する。
我々の主な目的は、多種多様な音声および非音声タスクにまたがる一般化が可能な音声表現を学習することである。
論文 参考訳(メタデータ) (2022-11-02T23:45:33Z) - COVYT: Introducing the Coronavirus YouTube and TikTok speech dataset
featuring the same speakers with and without infection [4.894353840908006]
私たちは、65人の話者から8時間以上のスピーチを含む公開ソースから収集された新しい新型コロナウイルスデータセットであるCOVYTデータセットを紹介します。
他の既存のCOVID-19サウンドデータセットと比較すると、COVYTデータセットのユニークな特徴は、全65話者から陽性と陰性の両方のサンプルを含むことである。
論文 参考訳(メタデータ) (2022-06-20T16:26:51Z) - Speaker Identification using Speech Recognition [0.0]
本研究は,音高,振幅,周波数などの人間の声質的特徴に基づいて,音声ファイル中の話者を識別するメカニズムを提供する。
限られたデータセットで音声表現を学習できる教師なし学習モデルを提案した。
論文 参考訳(メタデータ) (2022-05-29T13:03:42Z) - On the pragmatism of using binary classifiers over data intensive neural
network classifiers for detection of COVID-19 from voice [34.553128768223615]
音声からCOVID-19を検出するには、カスタムメイドの非標準機能や複雑なニューラルネットワーク分類器を必要としない。
臨床現場で収集・校正された人為的なデータセットからこれを実証する。
論文 参考訳(メタデータ) (2022-04-11T00:19:14Z) - Sub-word Level Lip Reading With Visual Attention [88.89348882036512]
我々は、リップリーディングで遭遇するユニークな課題に注目し、調整されたソリューションを提案する。
公開データセット上でのトレーニングにおいて,挑戦的なLSS2とLSS3ベンチマークの最先端結果を得る。
我々の最良のモデルはLRS2データセットで22.6%のワードエラー率を達成する。
論文 参考訳(メタデータ) (2021-10-14T17:59:57Z) - Machine Learning based COVID-19 Detection from Smartphone Recordings:
Cough, Breath and Speech [7.908757488948712]
本研究は, スマートフォンから発声, 呼吸, 発声を自動検出する実験である。
coswara と compare の2つのデータセットで実験を行い,その内容は,うなずき,呼吸,発話の記録を含む。
発声音声では、covid-19の最も強力な署名は、息とスピーチに続くものだと結論付けている。
論文 参考訳(メタデータ) (2021-04-02T23:21:24Z) - UniSpeech: Unified Speech Representation Learning with Labeled and
Unlabeled Data [54.733889961024445]
ラベル付きデータとラベル付きデータの両方を用いて音声表現を学習するためのUniSpeechという統合事前学習手法を提案する。
公立CommonVoiceコーパス上での言語間表現学習におけるUniSpeechの有効性を評価する。
論文 参考訳(メタデータ) (2021-01-19T12:53:43Z) - Detecting Parkinson's Disease From an Online Speech-task [4.968576908394359]
本稿では,世界中のどこでも短時間の音声タスクを記録できるWebベースのフレームワークを構想し,パーキンソン病(PD)のスクリーニングのために記録データを解析する。
対象者は726名(女性262名,女性38%,非女性464名,女性65%,平均年齢61名)であった。
音声データから標準音響特徴(MFCC)、ジッタおよびシマー変種(シマー変種)、および深層学習に基づく特徴を抽出した。
我々のモデルは、制御された実験室で収集されたデータと「野生」でも同様に良好に機能した。
論文 参考訳(メタデータ) (2020-09-02T21:16:24Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z) - wav2vec 2.0: A Framework for Self-Supervised Learning of Speech
Representations [51.25118580050847]
音声のみから強力な表現を学習し、書き起こされた音声を微調整することで、最高の半教師付き手法よりも優れた性能を発揮することを示す。
wav2vec 2.0は、潜在空間で入力された音声を隠蔽し、共同で学習される潜在表現の量子化上で定義された対照的なタスクを解決する。
論文 参考訳(メタデータ) (2020-06-20T02:35:02Z) - Audio ALBERT: A Lite BERT for Self-supervised Learning of Audio
Representation [51.37980448183019]
本稿では,自己教師型音声表現モデルの簡易版であるAudio ALBERTを提案する。
我々は、Audio ALBERTが、下流タスクにおいて、これらの巨大なモデルと競合する性能を達成することができることを示す。
探索実験において、潜在表現は、最後の層よりも音素と話者のリッチな情報をエンコードすることがわかった。
論文 参考訳(メタデータ) (2020-05-18T10:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。