論文の概要: Transfer Learning Based Diagnosis and Analysis of Lung Sound Aberrations
- arxiv url: http://arxiv.org/abs/2303.08362v1
- Date: Wed, 15 Mar 2023 04:46:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 18:26:43.273248
- Title: Transfer Learning Based Diagnosis and Analysis of Lung Sound Aberrations
- Title(参考訳): 転移学習に基づく肺音収差の診断と解析
- Authors: Hafsa Gulzar, Jiyun Li, Arslan Manzoor, Sadaf Rehmat, Usman Amjad and
Hadiqa Jalil Khan
- Abstract要約: 本研究は、聴診器と音声記録ソフトウェアによって得られた呼吸音を非侵襲的に識別する手法を開発することを目的とする。
各オーディオサンプルの視覚的表現が構築され、視覚を効果的に記述するために使用されるような方法を用いて、分類のためのリソース識別が可能である。
呼吸音響データベースは、95%の精度、88%の精度、86%のリコールスコア、81%のF1スコアを含む最先端の結果を得た。
- 参考スコア(独自算出の注目度): 0.35232085374661276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the development of computer -systems that can collect and analyze
enormous volumes of data, the medical profession is establishing several
non-invasive tools. This work attempts to develop a non-invasive technique for
identifying respiratory sounds acquired by a stethoscope and voice recording
software via machine learning techniques. This study suggests a trained and
proven CNN-based approach for categorizing respiratory sounds. A visual
representation of each audio sample is constructed, allowing resource
identification for classification using methods like those used to effectively
describe visuals. We used a technique called Mel Frequency Cepstral
Coefficients (MFCCs). Here, features are retrieved and categorized via VGG16
(transfer learning) and prediction is accomplished using 5-fold
cross-validation. Employing various data splitting techniques, Respiratory
Sound Database obtained cutting-edge results, including accuracy of 95%,
precision of 88%, recall score of 86%, and F1 score of 81%. The ICBHI dataset
is used to train and test the model.
- Abstract(参考訳): 膨大な量のデータを収集し分析できるコンピュータシステムの開発により、医療専門家はいくつかの非侵襲的なツールを確立している。
本研究は、聴診器と音声記録ソフトウェアが取得した呼吸音を機械学習で識別する非侵襲的手法の開発を試みるものである。
この研究は、呼吸音を分類するためのcnnベースの訓練と実証を示唆する。
各音声サンプルの視覚的表現を構築し、視覚を効果的に記述するために使用されるような手法を用いて分類のためのリソース識別を可能にする。
我々はMel Frequency Cepstral Coefficients (MFCCs)と呼ばれる手法を用いた。
ここでは、VGG16(Transfer Learning)を介して特徴を検索し分類し、5倍のクロスバリデーションを用いて予測を行う。
様々なデータ分割手法を用いて、呼吸音響データベースは95%の精度、88%の精度、86%のリコールスコア、81%のF1スコアを含む最先端の結果を得た。
icbhiデータセットはモデルのトレーニングとテストに使用される。
関連論文リスト
- Exploring traditional machine learning for identification of
pathological auscultations [0.39577682622066246]
各種機械学習シナリオにおいて,45例のデジタル6チャンネル聴取を行った。
目的は,正常な肺と異常な肺の音を区別することであった。
監視されていないモデルよりも一貫した優位性を示した。
論文 参考訳(メタデータ) (2022-09-01T18:03:21Z) - Deep Feature Learning for Medical Acoustics [78.56998585396421]
本研究の目的は,医療音響の課題における学習内容の比較である。
ヒトの呼吸音と心臓の鼓動を健康的または病態の影響の2つのカテゴリに分類する枠組みが実装されている。
論文 参考訳(メタデータ) (2022-08-05T10:39:37Z) - Robust Medical Image Classification from Noisy Labeled Data with Global
and Local Representation Guided Co-training [73.60883490436956]
本稿では,ロバストな医用画像分類のためのグローバルおよびローカルな表現学習を用いた新しい協調学習パラダイムを提案する。
ノイズラベルフィルタを用いた自己アンサンブルモデルを用いて、クリーンでノイズの多いサンプルを効率的に選択する。
また,ネットワークを暗黙的に正規化してノイズの多いサンプルを利用するための,グローバルかつ局所的な表現学習手法を設計する。
論文 参考訳(メタデータ) (2022-05-10T07:50:08Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Responding to Challenge Call of Machine Learning Model Development in
Diagnosing Respiratory Disease Sounds [0.0]
疾患診断において,くしゃみやうしゃみなどの呼吸系音を自動的に検出する機械学習モデルを開発した。
3つの異なる分類手法が3800以上の異なる音を含むデータセットにおいて呼吸音の分類に成功していると考えられた。
音質を分類し、他の音から音を嗅ぐ試みとして、RBFカーネルを搭載したSVMが83%の成功で達成された。
論文 参考訳(メタデータ) (2021-11-29T07:18:36Z) - Assessing clinical utility of Machine Learning and Artificial
Intelligence approaches to analyze speech recordings in Multiple Sclerosis: A
Pilot Study [1.6582693134062305]
本研究の目的は, 音声記録を用いた多発性硬化症の診断, バイオマーカー抽出, 進展モニタリングを支援するための機械学習と深層学習/AIアプローチの臨床的有用性を検討することである。
ランダムフォレストモデルは、バリデーションデータセットの精度0.82、トレーニングデータセットの5k倍サイクルの面積0.76の精度を達成した。
論文 参考訳(メタデータ) (2021-09-20T21:02:37Z) - Sounds of COVID-19: exploring realistic performance of audio-based
digital testing [17.59710651224251]
本稿では、COVID-19の音声によるデジタル検査の現実的な性能について検討する。
われわれは、大規模なクラウドソースによる呼吸器オーディオデータセットをモバイルアプリを通じて収集した。
非バイアスモデルでは、呼吸、うずみ、音声信号から抽出した特徴を予測器として取り出し、AUC-ROCは0.71(95% CI: 0.65$-$0.77)となる。
論文 参考訳(メタデータ) (2021-06-29T15:50:36Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z) - A Systematic Search over Deep Convolutional Neural Network Architectures
for Screening Chest Radiographs [4.6411273009803065]
胸部X線写真は肺・胸部疾患のスクリーニングに用いられる。
近年の取り組みは、深層畳み込みニューラルネットワーク(CNN)のアンサンブルを用いた性能ベンチマークを実証している。
複数の標準CNNアーキテクチャを体系的に探索し、分類性能がアンサンブルと同等であることが判明した単一候補モデルを特定した。
論文 参考訳(メタデータ) (2020-04-24T12:30:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。