論文の概要: COVYT: Introducing the Coronavirus YouTube and TikTok speech dataset
featuring the same speakers with and without infection
- arxiv url: http://arxiv.org/abs/2206.11045v1
- Date: Mon, 20 Jun 2022 16:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 07:40:04.340185
- Title: COVYT: Introducing the Coronavirus YouTube and TikTok speech dataset
featuring the same speakers with and without infection
- Title(参考訳): コロナウイルス「YouTube」と「TikTok」の音声データセットの紹介
- Authors: Andreas Triantafyllopoulos, Anastasia Semertzidou, Meishu Song,
Florian B. Pokorny, Bj\"orn W. Schuller
- Abstract要約: 私たちは、65人の話者から8時間以上のスピーチを含む公開ソースから収集された新しい新型コロナウイルスデータセットであるCOVYTデータセットを紹介します。
他の既存のCOVID-19サウンドデータセットと比較すると、COVYTデータセットのユニークな特徴は、全65話者から陽性と陰性の両方のサンプルを含むことである。
- 参考スコア(独自算出の注目度): 4.894353840908006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: More than two years after its outbreak, the COVID-19 pandemic continues to
plague medical systems around the world, putting a strain on scarce resources,
and claiming human lives. From the very beginning, various AI-based COVID-19
detection and monitoring tools have been pursued in an attempt to stem the tide
of infections through timely diagnosis. In particular, computer audition has
been suggested as a non-invasive, cost-efficient, and eco-friendly alternative
for detecting COVID-19 infections through vocal sounds. However, like all AI
methods, also computer audition is heavily dependent on the quantity and
quality of available data, and large-scale COVID-19 sound datasets are
difficult to acquire -- amongst other reasons -- due to the sensitive nature of
such data. To that end, we introduce the COVYT dataset -- a novel COVID-19
dataset collected from public sources containing more than 8 hours of speech
from 65 speakers. As compared to other existing COVID-19 sound datasets, the
unique feature of the COVYT dataset is that it comprises both COVID-19 positive
and negative samples from all 65 speakers. We analyse the acoustic
manifestation of COVID-19 on the basis of these perfectly speaker
characteristic balanced `in-the-wild' data using interpretable audio
descriptors, and investigate several classification scenarios that shed light
into proper partitioning strategies for a fair speech-based COVID-19 detection.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)のパンデミックから2年以上経っても、世界中の医療システムに疫病が流行し続けており、資源が不足し、人命を主張している。
当初から、さまざまなAIベースの新型コロナウイルス検出およびモニタリングツールが、タイムリーな診断を通じて感染の潮流を抑えるために追求されてきた。
特に、コンピュータオーディションは非侵襲的でコスト効率が高く、環境にやさしい、発声音による新型コロナウイルス感染検出の選択肢として提案されている。
しかし、他のAI手法と同様に、コンピュータ監査も利用可能なデータの量と品質に大きく依存しており、大規模なCOVID-19サウンドデータセットは、そのようなデータに敏感な性質があるため、取得が困難である。
そのために、65人の話者から8時間以上のスピーチを含む公開ソースから収集された新しいCOVID-19データセットであるCOVYTデータセットを紹介した。
他の既存のCOVID-19サウンドデータセットと比較すると、COVYTデータセットのユニークな特徴は、全65話者から陽性と陰性の両方のサンプルを含むことである。
音声記述子を用いた完全話者特性バランスデータに基づいて、新型コロナウイルスの音響的発現を分析し、公正な音声に基づくCOVID-19検出のための適切なパーティショニング戦略に光を当てるいくつかの分類シナリオについて検討する。
関連論文リスト
- Statistical Design and Analysis for Robust Machine Learning: A Case
Study from COVID-19 [45.216628450147034]
本稿では、音声信号に基づいて、新型コロナウイルス感染の予測に使用される最先端の機械学習技術について厳格に評価する。
本研究は,音響的特徴に基づく新型コロナウイルス感染状況の分類法の性能評価に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2022-12-15T13:50:13Z) - Developing a multi-variate prediction model for the detection of
COVID-19 from Crowd-sourced Respiratory Voice Data [0.0]
この研究の新規性は、音声記録から新型コロナウイルス患者を識別するためのディープラーニングモデルの開発である。
私たちは、新型コロナウイルスのサウンドアプリを使った4352人の参加者からクラウドソースされた、853のオーディオサンプルからなるケンブリッジ大学のデータセットを使用しました。
音声データに基づいて,陽性症例を検出する深層学習分類モデルを開発した。
論文 参考訳(メタデータ) (2022-09-08T11:46:37Z) - Evaluating the COVID-19 Identification ResNet (CIdeR) on the INTERSPEECH
COVID-19 from Audio Challenges [59.78485839636553]
CIdeRはエンド・ツー・エンドのディープラーニング・ニューラルネットワークで、個人が新型コロナウイルス陽性か新型コロナウイルス陰性かを分類するために設計された。
COVID-19 CoughとInterSPEECH 2021, ComParE, DiCOVAの両者によるCIdeRのバイナリ診断の可能性を示した。
論文 参考訳(メタデータ) (2021-07-30T10:59:08Z) - Project Achoo: A Practical Model and Application for COVID-19 Detection
from Recordings of Breath, Voice, and Cough [55.45063681652457]
コンシューマー端末で録音した音声を用いて、新型コロナウイルスを迅速にトリアージする機械学習手法を提案する。
この手法は,信号処理手法と微調整深層学習ネットワークを組み合わせることで,信号の識別,コークス検出,分類を行う手法を提供する。
我々はまた、症状チェッカーと音声、息、うず信号を使って新型コロナウイルスの感染を検知するモバイルアプリケーションを開発し、展開した。
論文 参考訳(メタデータ) (2021-07-12T08:07:56Z) - Sounds of COVID-19: exploring realistic performance of audio-based
digital testing [17.59710651224251]
本稿では、COVID-19の音声によるデジタル検査の現実的な性能について検討する。
われわれは、大規模なクラウドソースによる呼吸器オーディオデータセットをモバイルアプリを通じて収集した。
非バイアスモデルでは、呼吸、うずみ、音声信号から抽出した特徴を予測器として取り出し、AUC-ROCは0.71(95% CI: 0.65$-$0.77)となる。
論文 参考訳(メタデータ) (2021-06-29T15:50:36Z) - COVIDx-US -- An open-access benchmark dataset of ultrasound imaging data
for AI-driven COVID-19 analytics [116.6248556979572]
COVIDx-USは、新型コロナウイルス関連超音波画像データのオープンアクセスベンチマークデータセットです。
肺超音波93本と,SARS-CoV-2肺炎,非SARS-CoV-2肺炎,健康管理症例10,774本からなる。
論文 参考訳(メタデータ) (2021-03-18T03:31:33Z) - Virufy: A Multi-Branch Deep Learning Network for Automated Detection of
COVID-19 [1.9899603776429056]
研究者は、臨床設定で記録された音声サンプルを使用して新型コロナウイルス感染状態を検出するモデルを提示しました。
そこで本研究では,クラウドソースデータを用いて,手作業によるデータ処理やクリーン化を行わないマルチブランチ深層学習ネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-02T15:31:09Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - Audio, Speech, Language, & Signal Processing for COVID-19: A
Comprehensive Overview [0.0]
新型コロナウイルス(COVID-19)のパンデミックは、2020年の世界的研究の焦点となっている。
新型コロナウイルスの症状の大部分は、呼吸器系の機能に関連している。
この研究は、音声やその他の人間が生成する音声信号の中で、新型コロナウイルスのマーカーを特定することに焦点を当てている。
論文 参考訳(メタデータ) (2020-11-29T21:33:59Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。