論文の概要: Sensing of inspiration events from speech: comparison of deep learning
and linguistic methods
- arxiv url: http://arxiv.org/abs/2305.11683v1
- Date: Fri, 19 May 2023 14:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 14:20:29.703585
- Title: Sensing of inspiration events from speech: comparison of deep learning
and linguistic methods
- Title(参考訳): 音声からのインスピレーションイベントのセンシング:深層学習と言語学的手法の比較
- Authors: Aki H\"arm\"a, Ulf Grossekath\"ofer, Okke Ouweltjes, Venkata Srikanth
Nallanthighal
- Abstract要約: 呼吸器の胸部ベルトセンサーは、呼吸率やその他の呼吸の健康パラメータを測定するために用いられる。
VRB(Virtual Respiratory Belt)アルゴリズムは,音声からベルトセンサ波形を推定する。
- 参考スコア(独自算出の注目度): 4.8876405267792284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Respiratory chest belt sensor can be used to measure the respiratory rate and
other respiratory health parameters. Virtual Respiratory Belt, VRB, algorithms
estimate the belt sensor waveform from speech audio. In this paper we compare
the detection of inspiration events (IE) from respiratory belt sensor data
using a novel neural VRB algorithm and the detections based on time-aligned
linguistic content. The results show the superiority of the VRB method over
word pause detection or grammatical content segmentation. The comparison of the
methods show that both read and spontaneous speech content has a significant
amount of ungrammatical breathing, that is, breathing events that are not
aligned with grammatically appropriate places in language. This study gives new
insights into the development of VRB methods and adds to the general
understanding of speech breathing behavior. Moreover, a new VRB method, VRBOLA,
for the reconstruction of the continuous breathing waveform is demonstrated.
- Abstract(参考訳): 呼吸ベルトセンサーは、呼吸率やその他の呼吸健康パラメータを測定するために用いられる。
VRB(Virtual Respiratory Belt)アルゴリズムは,音声からベルトセンサ波形を推定する。
本稿では, ニューラルVRBアルゴリズムを用いた呼吸帯センサデータからのインスピレーションイベント(IE)の検出と, 時間順の言語内容に基づく検出との比較を行う。
その結果,単語停止検出や文法的内容のセグメンテーションよりもVRB法の方が優れていることが示された。
本手法との比較により, 読解音声と自発音声の両方が, 非文法的呼吸, すなわち, 文法的に適切な場所と一致しない呼吸事象を有意に有することが示された。
本研究は,VRB法の発展に新たな知見を与え,音声呼吸行動の理解を深めるものである。
また, 連続呼吸波形の再構成のための新しいVRB法であるVRBOLAを実証した。
関連論文リスト
- SIFToM: Robust Spoken Instruction Following through Theory of Mind [51.326266354164716]
本稿では,認知にインスパイアされた音声指導モデルであるSIFToMを提案し,多様な音声条件下でロボットが人間の指示を実践的に追従できるようにする。
結果から,SIFToMモデルは現状の音声モデルや言語モデルよりも優れており,課題に追従する音声命令に対する人間レベルの精度に近づいていることがわかった。
論文 参考訳(メタデータ) (2024-09-17T02:36:10Z) - Pre-Trained Foundation Model representations to uncover Breathing patterns in Speech [2.935056044470713]
呼吸速度(英: respiratory rate, RR)は、個人の健康、フィットネス、健康全般を評価するために用いられる重要な指標である。
RRを測定するための既存のアプローチは、特殊装備や訓練を用いて実施されている。
機械学習アルゴリズムは、バイオセンサー信号を入力としてRRを推定できることを示した。
論文 参考訳(メタデータ) (2024-07-17T21:57:18Z) - Rene: A Pre-trained Multi-modal Architecture for Auscultation of Respiratory Diseases [5.810320353233697]
本稿では,呼吸音の認識に適した大規模モデルであるReneを紹介する。
我々の革新的なアプローチは、事前訓練された音声認識モデルを用いて呼吸音を処理している。
我々は,Reneアーキテクチャを用いた実時間呼吸音識別システムを開発した。
論文 参考訳(メタデータ) (2024-05-13T03:00:28Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Audio-Visual Speech Codecs: Rethinking Audio-Visual Speech Enhancement
by Re-Synthesis [67.73554826428762]
本稿では,AR/VRにおける高忠実度通信のための新しい音声・視覚音声強調フレームワークを提案する。
提案手法は音声・視覚音声の手がかりを利用してニューラル音声のコードを生成することで,ノイズ信号からクリーンでリアルな音声を効率的に合成する。
論文 参考訳(メタデータ) (2022-03-31T17:57:10Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Multi-view Temporal Alignment for Non-parallel Articulatory-to-Acoustic
Speech Synthesis [59.623780036359655]
A2A(Articulatory-to-Aoustic)合成は、音声刺激器のキャプチャされた動きから可聴音声の生成を指します。
この手法には、病気や怪我のためにもはや話せない人々への口頭コミュニケーションの回復など、多くの応用がある。
本稿では,多視点学習の理論に基づく問題解決法を提案する。
論文 参考訳(メタデータ) (2020-12-30T15:09:02Z) - Respiratory Distress Detection from Telephone Speech using Acoustic and
Prosodic Features [27.77184655808592]
本研究は,よく知られた音響・韻律的特徴を用いた呼吸困難の自動検出に関する予備的知見を要約する。
音声サンプルはバングラデシュの医療機関から未確認の遠隔医療電話から収集される。
呼吸困難は、声質、発声パターン、発声時間、発声時間などの音声特徴を変化させる可能性があると仮定する。
論文 参考訳(メタデータ) (2020-11-15T13:32:45Z) - RespVAD: Voice Activity Detection via Video-Extracted Respiration
Patterns [5.716047866174048]
音声活動検出(Voice Activity Detection, VAD)とは、音声やビデオなどのデジタル信号における人間の音声の領域を識別するタスクである。
呼吸は 音声生成の 主要なエネルギー源となります
話者のビデオから抽出した呼吸パターンを用いた音声非依存型VAD手法を開発した。
論文 参考訳(メタデータ) (2020-08-21T13:26:24Z) - Robust Deep Learning Framework For Predicting Respiratory Anomalies and
Diseases [26.786743524562322]
本稿では,呼吸音の記録から呼吸器疾患を検出するための,堅牢な深層学習フレームワークを提案する。
バックエンドのディープラーニングモデルは、特徴を呼吸器疾患または異常のクラスに分類する。
ICBHIベンチマークを用いて実験を行い, 音の分類能力を評価する。
論文 参考訳(メタデータ) (2020-01-21T15:26:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。