論文の概要: FAIR4Cov: Fused Audio Instance and Representation for COVID-19 Detection
- arxiv url: http://arxiv.org/abs/2204.10581v1
- Date: Fri, 22 Apr 2022 09:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 13:26:45.380000
- Title: FAIR4Cov: Fused Audio Instance and Representation for COVID-19 Detection
- Title(参考訳): FAIR4Cov:COVID-19検出のための融合オーディオインスタンスと表現
- Authors: Tuan Truong, Matthias Lenga, Antoine Serrurier, Sadegh Mohammadi
- Abstract要約: COVID-19検出(FAIR4Cov)のための融合オーディオインスタンスと表現法を提案する。
波形およびスペクトログラム表現において、複数の体音から得られる結合特徴ベクトルを構築することに依存する。
本研究は, 発声, 呼吸, 発声から抽出した特徴を組み合わさった自己注意が, 最高の演奏に繋がることを示す。
- 参考スコア(独自算出の注目度): 0.38998241153792446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Audio-based classification techniques on body sounds have long been studied
to support diagnostic decisions, particularly in pulmonary diseases. In
response to the urgency of the COVID-19 pandemic, a growing number of models
are developed to identify COVID-19 patients based on acoustic input. Most
models focus on cough because the dry cough is the best-known symptom of
COVID-19. However, other body sounds, such as breath and speech, have also been
revealed to correlate with COVID-19 as well. In this work, rather than relying
on a specific body sound, we propose Fused Audio Instance and Representation
for COVID-19 Detection (FAIR4Cov). It relies on constructing a joint feature
vector obtained from a plurality of body sounds in waveform and spectrogram
representation. The core component of FAIR4Cov is a self-attention fusion unit
that is trained to establish the relation of multiple body sounds and audio
representations and integrate it into a compact feature vector. We set up our
experiments on different combinations of body sounds using only waveform,
spectrogram, and a joint representation of waveform and spectrogram. Our
findings show that the use of self-attention to combine extracted features from
cough, breath, and speech sounds leads to the best performance with an Area
Under the Receiver Operating Characteristic Curve (AUC) score of 0.8658, a
sensitivity of 0.8057, and a specificity of 0.7958. This AUC is 0.0227 higher
than the one of the models trained on spectrograms only and 0.0847 higher than
the one of the models trained on waveforms only. The results demonstrate that
the combination of spectrogram with waveform representation helps to enrich the
extracted features and outperforms the models with single representation.
- Abstract(参考訳): 体音の音声に基づく分類技術は、特に肺疾患における診断決定を支援するために長年研究されてきた。
新型コロナウイルス(covid-19)パンデミックの緊急性に対応するため、音響入力に基づいて新型コロナウイルス患者を特定するためのモデルが増えている。
ほとんどのモデルは干し草に焦点を当てており、干し草は新型コロナウイルスの最もよく知られた症状である。
しかし、呼吸や発声などの他の身体の音も、新型コロナウイルスと相関していることが判明した。
本研究は,特定の身体音に頼らずに,covid-19検出のための融合音声インスタンスと表現(fair4cov)を提案する。
波形およびスペクトログラム表現において、複数の体音から得られる結合特徴ベクトルを構築することに依存する。
FAIR4Covのコアコンポーネントは、複数のボディサウンドとオーディオ表現の関係を確立し、コンパクトな特徴ベクトルに統合するように訓練された自己注意融合ユニットである。
波形とスペクトログラム,波形とスペクトログラムの結合表現のみを用いて,身体音の異なる組み合わせについて実験を行った。
以上の結果から, 聴覚, 呼吸, 音声から抽出した特徴を組み合わすことで, 受信者動作特性曲線(AUC)スコアが0.8658, 感度が0.8057, 特異性が0.7958であることが示唆された。
このAUCは分光器でのみ訓練されたモデルよりも0.0227高く、波形でのみ訓練されたモデルよりも0.0847高い。
その結果、スペクトログラムと波形表現の組み合わせは抽出された特徴を豊かにし、単一の表現でモデルを上回ることを示した。
関連論文リスト
- A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Show from Tell: Audio-Visual Modelling in Clinical Settings [58.88175583465277]
臨床環境でのオーディオ・ビジュアル・モデリングを考察し、人間の専門的アノテーションを使わずに医学的表現を学習するためのソリューションを提供する。
この目的のために, 単純かつ効果的なマルチモーダル自己教師型学習フレームワークを提案する。
提案手法は,音声のみを基準として,超音波画像中の解剖学的関心領域をローカライズすることができる。
論文 参考訳(メタデータ) (2023-10-25T08:55:48Z) - Audio-Based Classification of Respiratory Diseases using Advanced Signal
Processing and Machine Learning for Assistive Diagnosis Support [1.9049294570026933]
我々の研究は、機械学習モデルをトレーニングするために、呼吸音の医用データベースとして最大規模のものを採用することに焦点を当てている。
実験モード分解とスペクトル分析を用いて,音響データから生理的関連バイオシグナーを抽出する。
健常者と疾患の鑑別において,バランスの取れた精度が87%のバイナリ分類モデルを用いている。
論文 参考訳(メタデータ) (2023-09-12T23:54:00Z) - COVID-19 Detection System: A Comparative Analysis of System Performance
Based on Acoustic Features of Cough Audio Signals [0.7826806223782052]
研究は、新型コロナウイルス検出における機械学習(ML)モデルの性能を高める様々な音響特性を検討することを目的としている。
本研究では,Mel Frequency Cepstral Coefficients (MFCC), Chroma, Spectral Contrastの3つの特徴抽出手法の有効性について,SVM(Support Vector Machine)とMLP(Multilayer Perceptron)の2つのMLアルゴリズムを用いて検討した。
提案システムは,新型コロナウイルス検出のためのCOUGHVIDおよびVirufyデータセット上での最先端の分類性能を示す。
論文 参考訳(メタデータ) (2023-09-08T08:33:24Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Audio Deepfake Detection Based on a Combination of F0 Information and
Real Plus Imaginary Spectrogram Features [51.924340387119415]
ASVspoof 2019 LAデータセットの実験結果から,提案手法はオーディオディープフェイク検出に非常に有効であることがわかった。
提案方式は音声深度検出作業に非常に有効であり,ほぼ全てのシステムにまたがる等価誤差率(EER)が0.43%に達する。
論文 参考訳(メタデータ) (2022-08-02T02:46:16Z) - COVID-19 Detection from Respiratory Sounds with Hierarchical Spectrogram
Transformers [1.4091863292043447]
本研究は、新型コロナウイルス患者の音声記録や呼吸音の健全な制御を区別する新しい深層学習手法を提案する。
提案手法は, 呼吸音のスペクトル表現に新しい階層型スペクトログラム変換器 (HST) を利用する。
HSTは、スペクトログラム内のローカルウィンドウ上の自己注意機構を具現化し、モデルステージ上でウィンドウサイズを徐々に成長させ、ローカルからグローバルなコンテキストをキャプチャする。
論文 参考訳(メタデータ) (2022-07-19T19:55:16Z) - Cough Detection Using Selected Informative Features from Audio Signals [24.829135966052142]
モデルは、ESC-50データセットと自己記録コークス記録を組み合わせたデータセットでトレーニングされる。
最高のコー検出モデルは、それぞれ94.9%、97.1%、93.1%、0.95の精度、リコール、精度、F1スコアを実現する。
論文 参考訳(メタデータ) (2021-08-07T23:05:18Z) - Quantification of pulmonary involvement in COVID-19 pneumonia by means
of a cascade oftwo U-nets: training and assessment on multipledatasets using
different annotation criteria [83.83783947027392]
本研究は、新型コロナウイルスの肺病変の同定、セグメント化、定量化のために人工知能(AI)を活用することを目的とする。
2つのU-netのカスケードをベースとした自動解析パイプラインLungQuantシステムを開発した。
LungQuantシステムにおけるCT-Severity Score(CT-SS)の精度も評価した。
論文 参考訳(メタデータ) (2021-05-06T10:21:28Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - CNN-MoE based framework for classification of respiratory anomalies and
lung disease detection [33.45087488971683]
本稿では,聴取分析のための頑健な深層学習フレームワークを提示し,検討する。
呼吸周期の異常を分類し、呼吸音の記録から病気を検出することを目的としている。
論文 参考訳(メタデータ) (2020-04-04T21:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。