論文の概要: Deep Feature Learning for Medical Acoustics
- arxiv url: http://arxiv.org/abs/2208.03084v1
- Date: Fri, 5 Aug 2022 10:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 13:15:22.954501
- Title: Deep Feature Learning for Medical Acoustics
- Title(参考訳): 医療音響の深層的特徴学習
- Authors: Alessandro Maria Poir\`e, Federico Simonetta, Stavros Ntalampiras
- Abstract要約: 本研究の目的は,医療音響の課題における学習内容の比較である。
ヒトの呼吸音と心臓の鼓動を健康的または病態の影響の2つのカテゴリに分類する枠組みが実装されている。
- 参考スコア(独自算出の注目度): 78.56998585396421
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The purpose of this paper is to compare different learnable frontends in
medical acoustics tasks. A framework has been implemented to classify human
respiratory sounds and heartbeats in two categories, i.e. healthy or affected
by pathologies. After obtaining two suitable datasets, we proceeded to classify
the sounds using two learnable state-of-art frontends -- LEAF and nnAudio --
plus a non-learnable baseline frontend, i.e. Mel-filterbanks. The computed
features are then fed into two different CNN models, namely VGG16 and
EfficientNet. The frontends are carefully benchmarked in terms of the number of
parameters, computational resources, and effectiveness.
This work demonstrates how the integration of learnable frontends in neural
audio classification systems may improve performance, especially in the field
of medical acoustics. However, the usage of such frameworks makes the needed
amount of data even larger. Consequently, they are useful if the amount of data
available for training is adequately large to assist the feature learning
process.
- Abstract(参考訳): 本研究の目的は,医療音響タスクにおける学習可能なフロントエンドの比較である。
ヒトの呼吸音と心臓の鼓動を健康的または病態の影響の2つのカテゴリに分類する枠組みが実装されている。
2つの適切なデータセットを得た後、leafとnnaudioという2つの学習可能な最先端と、学習不能なベースラインフロントエンド、すなわちmel-filterbanksを使って音を分類しました。
計算された機能は、VGG16とEfficientNetという2つの異なるCNNモデルに入力される。
フロントエンドはパラメータの数、計算資源、有効性の点で慎重にベンチマークされる。
本研究は、神経音響分類システムにおける学習可能なフロントエンドの統合が、特に医療音響の分野で、パフォーマンスをいかに改善するかを示す。
しかし、そのようなフレームワークを使用すると、必要なデータ量がさらに大きくなる。
したがって, 特徴学習プロセスを支援するために, トレーニングに利用できるデータ量が十分に大きい場合に有用である。
関連論文リスト
- Audio-Visual Efficient Conformer for Robust Speech Recognition [91.3755431537592]
本稿では,近年提案されている高能率コンバータ接続性時間分類アーキテクチャの雑音を,音声と視覚の両方を処理して改善することを提案する。
実験の結果,音声と視覚のモダリティを用いることで,環境騒音の存在下での音声の認識が向上し,トレーニングが大幅に加速し,WERが4倍のトレーニングステップで低下することが確認された。
論文 参考訳(メタデータ) (2023-01-04T05:36:56Z) - Learning Phone Recognition from Unpaired Audio and Phone Sequences Based
on Generative Adversarial Network [58.82343017711883]
そこで本研究では,不適切な音声系列や発話から直接学習する方法について検討する。
GAN訓練を第1段階に導入し,無声音声と音声シーケンスのマッピング関係を求める。
第2段階では、発電機の出力からトレーニングするために別のHMMモデルが導入され、性能が向上する。
論文 参考訳(メタデータ) (2022-07-29T09:29:28Z) - Segment-level Metric Learning for Few-shot Bioacoustic Event Detection [56.59107110017436]
本稿では,モデル最適化時の肯定的事象と否定的事象の両方を利用するセグメントレベルの数ショット学習フレームワークを提案する。
本システムでは,DCASE2022チャレンジタスク5(DCASE2022-T5)のF値62.73の検証を行い,ベースラインプロトタイプネットワーク34.02の性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2022-07-15T22:41:30Z) - Transferring Voice Knowledge for Acoustic Event Detection: An Empirical
Study [11.825240267691209]
本稿では,話者データセットから抽出した高レベル音声表現を伝達して,音響イベント検出パイプラインを強化する可能性について検討する。
AEDプロセス中に音声と音響の特徴を共同学習するためのデュアルブランチニューラルネットワークアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-10-07T04:03:21Z) - Automatic Analysis of the Emotional Content of Speech in Daylong
Child-Centered Recordings from a Neonatal Intensive Care Unit [3.7373314439051106]
フィンランドとエストニアの2つの病院から、幼児の音声環境から毎日何百時間もの録音が収集された。
本稿では、当初未発表の大規模実世界の音声データセットを導入し、フィンランドのサブセットを対象とした機能的SERシステムの開発について述べる。
最適性能モデルは73.4%の非重み付き平均リコールの分類性能を達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-14T11:17:52Z) - Anomalous Sound Detection Using a Binary Classification Model and Class
Centroids [47.856367556856554]
本稿では, 正規データだけでなく, 他領域の外部データも擬似アノマラス音響データとして用いた二分分類モデルを提案する。
また,2値分類モデルをさらに改善するために,異常音データの追加の有効性についても検討した。
論文 参考訳(メタデータ) (2021-06-11T03:35:06Z) - Training Data Augmentation for Deep Learning Radio Frequency Systems [1.1199585259018459]
この研究は、トレーニング中に使用されるデータに焦点を当てている。
一般に、検査されたデータ型はそれぞれ、最終アプリケーションに有用なコントリビューションを持っている。
キャプチャーデータの利点にもかかわらず、ライブコレクションから生じる困難さとコストは、ピークパフォーマンスを達成するのに必要なデータ量を非現実的にすることが多い。
論文 参考訳(メタデータ) (2020-10-01T02:26:16Z) - Effects of Word-frequency based Pre- and Post- Processings for Audio
Captioning [49.41766997393417]
音響シーン・イベントの検出・分類のタスク6(自動音声キャプション)に使用したシステム(DCASE)2020 Challengeは,音声キャプションのためのデータ拡張,マルチタスク学習,ポストプロセッシングという3つの要素を組み合わせる。
このシステムは評価スコアが最も高いが、個々の要素のどれがパーフォーマンスに最も貢献したかはまだ明らかになっていない。
論文 参考訳(メタデータ) (2020-09-24T01:07:33Z) - Data augmentation using generative networks to identify dementia [20.137419355252362]
生成モデルはデータ拡張の効果的なアプローチとして利用できることを示す。
本稿では,認知症自動検出システムから抽出した音声と音声の異なる特徴に対する類似したアプローチの適用について検討する。
論文 参考訳(メタデータ) (2020-04-13T15:05:24Z) - CURE Dataset: Ladder Networks for Audio Event Classification [15.850545634216484]
約300万人が聴覚障害を抱えており、周囲で起きている出来事を認識できない。
本稿では,難聴者に対して最も関連性の高い特定の音声イベントをキュレートしたCUREデータセットを確立する。
論文 参考訳(メタデータ) (2020-01-12T09:35:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。