論文の概要: Fused Audio Instance and Representation for Respiratory Disease
Detection
- arxiv url: http://arxiv.org/abs/2204.10581v4
- Date: Thu, 23 Nov 2023 09:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 05:21:44.589499
- Title: Fused Audio Instance and Representation for Respiratory Disease
Detection
- Title(参考訳): 呼吸疾患検出のための融合音声例と表現
- Authors: Tuan Truong, Matthias Lenga, Antoine Serrurier, Sadegh Mohammadi
- Abstract要約: 呼吸器疾患の検出方法としてFAIR(Fused Audio Instance and Representation)を提案する。
体音の波形とスペクトログラムの表現を組み合わせることで、COVID-19検出のユースケースについて実験を行った。
- 参考スコア(独自算出の注目度): 0.6827423171182154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Audio-based classification techniques on body sounds have long been studied
to aid in the diagnosis of respiratory diseases. While most research is
centered on the use of cough as the main biomarker, other body sounds also have
the potential to detect respiratory diseases. Recent studies on COVID-19 have
shown that breath and speech sounds, in addition to cough, correlate with the
disease. Our study proposes Fused Audio Instance and Representation (FAIR) as a
method for respiratory disease detection. FAIR relies on constructing a joint
feature vector from various body sounds represented in waveform and spectrogram
form. We conducted experiments on the use case of COVID-19 detection by
combining waveform and spectrogram representation of body sounds. Our findings
show that the use of self-attention to combine extracted features from cough,
breath, and speech sounds leads to the best performance with an Area Under the
Receiver Operating Characteristic Curve (AUC) score of 0.8658, a sensitivity of
0.8057, and a specificity of 0.7958. Compared to models trained solely on
spectrograms or waveforms, the use of both representations results in an
improved AUC score, demonstrating that combining spectrogram and waveform
representation helps to enrich the extracted features and outperforms the
models that use only one representation.
- Abstract(参考訳): 体音の音声に基づく分類技術は、呼吸器疾患の診断を助けるために長年研究されてきた。
ほとんどの研究は、主要なバイオマーカーとしてcoughの使用に重点を置いているが、他の身体音は呼吸器疾患を検出する可能性も持っている。
新型コロナウイルスに関する最近の研究によると、息の音と発声音は、この病気と相関している。
本研究は,呼吸性疾患の診断方法としてFAIR(Fused Audio Instance and Representation)を提案する。
フェアは波形とスペクトログラムで表される様々なボディサウンドからジョイント特徴ベクトルを構築することに依存している。
体音の波形とスペクトログラムの表現を組み合わせることで、COVID-19検出のユースケースについて実験を行った。
以上の結果から, 聴覚, 呼吸, 音声から抽出した特徴を組み合わすことで, 受信者動作特性曲線(AUC)スコアが0.8658, 感度が0.8057, 特異性が0.7958であることが示唆された。
スペクトログラムや波形にのみ訓練されたモデルと比較して、両表現の使用によりAUCスコアが向上し、スペクトルと波形表現の組み合わせは抽出した特徴を豊かにし、1つの表現のみを使用するモデルよりも優れていることを示す。
関連論文リスト
- Abnormal Respiratory Sound Identification Using Audio-Spectrogram Vision Transformer [19.993594487490682]
AS-ViT法は3つの指標を用いて評価され、60:40分割比が79.1%、59.8%、80:20分割比が86.4%、69.3%となった。
提案手法は3つの指標を用いて評価し,60:40分割比79.1%,59.8%,80:20分割比86.4%,69.3%を得た。
論文 参考訳(メタデータ) (2024-05-14T06:31:38Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - Show from Tell: Audio-Visual Modelling in Clinical Settings [58.88175583465277]
臨床環境でのオーディオ・ビジュアル・モデリングを考察し、人間の専門的アノテーションを使わずに医学的表現を学習するためのソリューションを提供する。
この目的のために, 単純かつ効果的なマルチモーダル自己教師型学習フレームワークを提案する。
提案手法は,音声のみを基準として,超音波画像中の解剖学的関心領域をローカライズすることができる。
論文 参考訳(メタデータ) (2023-10-25T08:55:48Z) - COVID-19 Detection System: A Comparative Analysis of System Performance Based on Acoustic Features of Cough Audio Signals [0.6963971634605796]
本研究は、新型コロナウイルス検出における機械学習(ML)モデルの性能向上を図ることを目的としている。
MFCC(Mel Frequency Cepstral Coefficients)、クロマ(Chroma)、スペクトルコントラスト(Spectral Contrast)の3つの特徴抽出手法の有効性について検討し、2つの機械学習アルゴリズム、SVM(Support Vector Machine)とMLP(Multilayer Perceptron)に適用した。
提案システムでは,COUGHVIDデータセットでは0.843,Virufyでは0.953,最先端の分類性能を示す。
論文 参考訳(メタデータ) (2023-09-08T08:33:24Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Audio Deepfake Detection Based on a Combination of F0 Information and
Real Plus Imaginary Spectrogram Features [51.924340387119415]
ASVspoof 2019 LAデータセットの実験結果から,提案手法はオーディオディープフェイク検出に非常に有効であることがわかった。
提案方式は音声深度検出作業に非常に有効であり,ほぼ全てのシステムにまたがる等価誤差率(EER)が0.43%に達する。
論文 参考訳(メタデータ) (2022-08-02T02:46:16Z) - COVID-19 Detection from Respiratory Sounds with Hierarchical Spectrogram
Transformers [1.4091863292043447]
本研究は、新型コロナウイルス患者の音声記録や呼吸音の健全な制御を区別する新しい深層学習手法を提案する。
提案手法は, 呼吸音のスペクトル表現に新しい階層型スペクトログラム変換器 (HST) を利用する。
HSTは、スペクトログラム内のローカルウィンドウ上の自己注意機構を具現化し、モデルステージ上でウィンドウサイズを徐々に成長させ、ローカルからグローバルなコンテキストをキャプチャする。
論文 参考訳(メタデータ) (2022-07-19T19:55:16Z) - Cough Detection Using Selected Informative Features from Audio Signals [24.829135966052142]
モデルは、ESC-50データセットと自己記録コークス記録を組み合わせたデータセットでトレーニングされる。
最高のコー検出モデルは、それぞれ94.9%、97.1%、93.1%、0.95の精度、リコール、精度、F1スコアを実現する。
論文 参考訳(メタデータ) (2021-08-07T23:05:18Z) - Quantification of pulmonary involvement in COVID-19 pneumonia by means
of a cascade oftwo U-nets: training and assessment on multipledatasets using
different annotation criteria [83.83783947027392]
本研究は、新型コロナウイルスの肺病変の同定、セグメント化、定量化のために人工知能(AI)を活用することを目的とする。
2つのU-netのカスケードをベースとした自動解析パイプラインLungQuantシステムを開発した。
LungQuantシステムにおけるCT-Severity Score(CT-SS)の精度も評価した。
論文 参考訳(メタデータ) (2021-05-06T10:21:28Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - CNN-MoE based framework for classification of respiratory anomalies and
lung disease detection [33.45087488971683]
本稿では,聴取分析のための頑健な深層学習フレームワークを提示し,検討する。
呼吸周期の異常を分類し、呼吸音の記録から病気を検出することを目的としている。
論文 参考訳(メタデータ) (2020-04-04T21:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。