論文の概要: FAIR4Cov: Fused Audio Instance and Representation for COVID-19 Detection
- arxiv url: http://arxiv.org/abs/2204.10581v1
- Date: Fri, 22 Apr 2022 09:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 13:26:45.380000
- Title: FAIR4Cov: Fused Audio Instance and Representation for COVID-19 Detection
- Title(参考訳): FAIR4Cov:COVID-19検出のための融合オーディオインスタンスと表現
- Authors: Tuan Truong, Matthias Lenga, Antoine Serrurier, Sadegh Mohammadi
- Abstract要約: COVID-19検出(FAIR4Cov)のための融合オーディオインスタンスと表現法を提案する。
波形およびスペクトログラム表現において、複数の体音から得られる結合特徴ベクトルを構築することに依存する。
本研究は, 発声, 呼吸, 発声から抽出した特徴を組み合わさった自己注意が, 最高の演奏に繋がることを示す。
- 参考スコア(独自算出の注目度): 0.38998241153792446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Audio-based classification techniques on body sounds have long been studied
to support diagnostic decisions, particularly in pulmonary diseases. In
response to the urgency of the COVID-19 pandemic, a growing number of models
are developed to identify COVID-19 patients based on acoustic input. Most
models focus on cough because the dry cough is the best-known symptom of
COVID-19. However, other body sounds, such as breath and speech, have also been
revealed to correlate with COVID-19 as well. In this work, rather than relying
on a specific body sound, we propose Fused Audio Instance and Representation
for COVID-19 Detection (FAIR4Cov). It relies on constructing a joint feature
vector obtained from a plurality of body sounds in waveform and spectrogram
representation. The core component of FAIR4Cov is a self-attention fusion unit
that is trained to establish the relation of multiple body sounds and audio
representations and integrate it into a compact feature vector. We set up our
experiments on different combinations of body sounds using only waveform,
spectrogram, and a joint representation of waveform and spectrogram. Our
findings show that the use of self-attention to combine extracted features from
cough, breath, and speech sounds leads to the best performance with an Area
Under the Receiver Operating Characteristic Curve (AUC) score of 0.8658, a
sensitivity of 0.8057, and a specificity of 0.7958. This AUC is 0.0227 higher
than the one of the models trained on spectrograms only and 0.0847 higher than
the one of the models trained on waveforms only. The results demonstrate that
the combination of spectrogram with waveform representation helps to enrich the
extracted features and outperforms the models with single representation.
- Abstract(参考訳): 体音の音声に基づく分類技術は、特に肺疾患における診断決定を支援するために長年研究されてきた。
新型コロナウイルス(covid-19)パンデミックの緊急性に対応するため、音響入力に基づいて新型コロナウイルス患者を特定するためのモデルが増えている。
ほとんどのモデルは干し草に焦点を当てており、干し草は新型コロナウイルスの最もよく知られた症状である。
しかし、呼吸や発声などの他の身体の音も、新型コロナウイルスと相関していることが判明した。
本研究は,特定の身体音に頼らずに,covid-19検出のための融合音声インスタンスと表現(fair4cov)を提案する。
波形およびスペクトログラム表現において、複数の体音から得られる結合特徴ベクトルを構築することに依存する。
FAIR4Covのコアコンポーネントは、複数のボディサウンドとオーディオ表現の関係を確立し、コンパクトな特徴ベクトルに統合するように訓練された自己注意融合ユニットである。
波形とスペクトログラム,波形とスペクトログラムの結合表現のみを用いて,身体音の異なる組み合わせについて実験を行った。
以上の結果から, 聴覚, 呼吸, 音声から抽出した特徴を組み合わすことで, 受信者動作特性曲線(AUC)スコアが0.8658, 感度が0.8057, 特異性が0.7958であることが示唆された。
このAUCは分光器でのみ訓練されたモデルよりも0.0227高く、波形でのみ訓練されたモデルよりも0.0847高い。
その結果、スペクトログラムと波形表現の組み合わせは抽出された特徴を豊かにし、単一の表現でモデルを上回ることを示した。
関連論文リスト
- Abnormal Respiratory Sound Identification Using Audio-Spectrogram Vision Transformer [19.993594487490682]
AS-ViT法は3つの指標を用いて評価され、60:40分割比が79.1%、59.8%、80:20分割比が86.4%、69.3%となった。
提案手法は3つの指標を用いて評価し,60:40分割比79.1%,59.8%,80:20分割比86.4%,69.3%を得た。
論文 参考訳(メタデータ) (2024-05-14T06:31:38Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Show from Tell: Audio-Visual Modelling in Clinical Settings [58.88175583465277]
臨床環境でのオーディオ・ビジュアル・モデリングを考察し、人間の専門的アノテーションを使わずに医学的表現を学習するためのソリューションを提供する。
この目的のために, 単純かつ効果的なマルチモーダル自己教師型学習フレームワークを提案する。
提案手法は,音声のみを基準として,超音波画像中の解剖学的関心領域をローカライズすることができる。
論文 参考訳(メタデータ) (2023-10-25T08:55:48Z) - COVID-19 Detection System: A Comparative Analysis of System Performance Based on Acoustic Features of Cough Audio Signals [0.6963971634605796]
本研究は、新型コロナウイルス検出における機械学習(ML)モデルの性能向上を図ることを目的としている。
MFCC(Mel Frequency Cepstral Coefficients)、クロマ(Chroma)、スペクトルコントラスト(Spectral Contrast)の3つの特徴抽出手法の有効性について検討し、2つの機械学習アルゴリズム、SVM(Support Vector Machine)とMLP(Multilayer Perceptron)に適用した。
提案システムでは,COUGHVIDデータセットでは0.843,Virufyでは0.953,最先端の分類性能を示す。
論文 参考訳(メタデータ) (2023-09-08T08:33:24Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Audio Deepfake Detection Based on a Combination of F0 Information and
Real Plus Imaginary Spectrogram Features [51.924340387119415]
ASVspoof 2019 LAデータセットの実験結果から,提案手法はオーディオディープフェイク検出に非常に有効であることがわかった。
提案方式は音声深度検出作業に非常に有効であり,ほぼ全てのシステムにまたがる等価誤差率(EER)が0.43%に達する。
論文 参考訳(メタデータ) (2022-08-02T02:46:16Z) - COVID-19 Detection from Respiratory Sounds with Hierarchical Spectrogram
Transformers [1.4091863292043447]
本研究は、新型コロナウイルス患者の音声記録や呼吸音の健全な制御を区別する新しい深層学習手法を提案する。
提案手法は, 呼吸音のスペクトル表現に新しい階層型スペクトログラム変換器 (HST) を利用する。
HSTは、スペクトログラム内のローカルウィンドウ上の自己注意機構を具現化し、モデルステージ上でウィンドウサイズを徐々に成長させ、ローカルからグローバルなコンテキストをキャプチャする。
論文 参考訳(メタデータ) (2022-07-19T19:55:16Z) - Cough Detection Using Selected Informative Features from Audio Signals [24.829135966052142]
モデルは、ESC-50データセットと自己記録コークス記録を組み合わせたデータセットでトレーニングされる。
最高のコー検出モデルは、それぞれ94.9%、97.1%、93.1%、0.95の精度、リコール、精度、F1スコアを実現する。
論文 参考訳(メタデータ) (2021-08-07T23:05:18Z) - Quantification of pulmonary involvement in COVID-19 pneumonia by means
of a cascade oftwo U-nets: training and assessment on multipledatasets using
different annotation criteria [83.83783947027392]
本研究は、新型コロナウイルスの肺病変の同定、セグメント化、定量化のために人工知能(AI)を活用することを目的とする。
2つのU-netのカスケードをベースとした自動解析パイプラインLungQuantシステムを開発した。
LungQuantシステムにおけるCT-Severity Score(CT-SS)の精度も評価した。
論文 参考訳(メタデータ) (2021-05-06T10:21:28Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - CNN-MoE based framework for classification of respiratory anomalies and
lung disease detection [33.45087488971683]
本稿では,聴取分析のための頑健な深層学習フレームワークを提示し,検討する。
呼吸周期の異常を分類し、呼吸音の記録から病気を検出することを目的としている。
論文 参考訳(メタデータ) (2020-04-04T21:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。