論文の概要: Sensing of inspiration events from speech: comparison of deep learning
and linguistic methods
- arxiv url: http://arxiv.org/abs/2305.11683v1
- Date: Fri, 19 May 2023 14:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 14:20:29.703585
- Title: Sensing of inspiration events from speech: comparison of deep learning
and linguistic methods
- Title(参考訳): 音声からのインスピレーションイベントのセンシング:深層学習と言語学的手法の比較
- Authors: Aki H\"arm\"a, Ulf Grossekath\"ofer, Okke Ouweltjes, Venkata Srikanth
Nallanthighal
- Abstract要約: 呼吸器の胸部ベルトセンサーは、呼吸率やその他の呼吸の健康パラメータを測定するために用いられる。
VRB(Virtual Respiratory Belt)アルゴリズムは,音声からベルトセンサ波形を推定する。
- 参考スコア(独自算出の注目度): 4.8876405267792284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Respiratory chest belt sensor can be used to measure the respiratory rate and
other respiratory health parameters. Virtual Respiratory Belt, VRB, algorithms
estimate the belt sensor waveform from speech audio. In this paper we compare
the detection of inspiration events (IE) from respiratory belt sensor data
using a novel neural VRB algorithm and the detections based on time-aligned
linguistic content. The results show the superiority of the VRB method over
word pause detection or grammatical content segmentation. The comparison of the
methods show that both read and spontaneous speech content has a significant
amount of ungrammatical breathing, that is, breathing events that are not
aligned with grammatically appropriate places in language. This study gives new
insights into the development of VRB methods and adds to the general
understanding of speech breathing behavior. Moreover, a new VRB method, VRBOLA,
for the reconstruction of the continuous breathing waveform is demonstrated.
- Abstract(参考訳): 呼吸ベルトセンサーは、呼吸率やその他の呼吸健康パラメータを測定するために用いられる。
VRB(Virtual Respiratory Belt)アルゴリズムは,音声からベルトセンサ波形を推定する。
本稿では, ニューラルVRBアルゴリズムを用いた呼吸帯センサデータからのインスピレーションイベント(IE)の検出と, 時間順の言語内容に基づく検出との比較を行う。
その結果,単語停止検出や文法的内容のセグメンテーションよりもVRB法の方が優れていることが示された。
本手法との比較により, 読解音声と自発音声の両方が, 非文法的呼吸, すなわち, 文法的に適切な場所と一致しない呼吸事象を有意に有することが示された。
本研究は,VRB法の発展に新たな知見を与え,音声呼吸行動の理解を深めるものである。
また, 連続呼吸波形の再構成のための新しいVRB法であるVRBOLAを実証した。
関連論文リスト
- Exploring Speech Recognition, Translation, and Understanding with
Discrete Speech Units: A Comparative Study [68.88536866933038]
音声信号は、通常、毎秒数万のレートでサンプリングされ、冗長性を含んでいる。
近年の研究では、自己教師型学習表現から派生した離散音声単位の使用が提案されている。
復号化やサブワードモデリングなどの様々な手法を適用することで、さらに音声列の長さを圧縮することができる。
論文 参考訳(メタデータ) (2023-09-27T17:21:13Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Audio-Visual Speech Codecs: Rethinking Audio-Visual Speech Enhancement
by Re-Synthesis [67.73554826428762]
本稿では,AR/VRにおける高忠実度通信のための新しい音声・視覚音声強調フレームワークを提案する。
提案手法は音声・視覚音声の手がかりを利用してニューラル音声のコードを生成することで,ノイズ信号からクリーンでリアルな音声を効率的に合成する。
論文 参考訳(メタデータ) (2022-03-31T17:57:10Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Silent Speech and Emotion Recognition from Vocal Tract Shape Dynamics in
Real-Time MRI [9.614694312155798]
本稿では,音声合成中の声道形状の可変長列における音響情報を理解する,ディープニューラルネットワークに基づく学習フレームワークを提案する。
提案するフレームワークは、畳み込み、繰り返しネットワーク、接続性時間的分類損失から成り、完全にエンドツーエンドに訓練されている。
我々の知る限りでは、この研究は、rtMRIビデオで捉えた個人の動脈の動きに基づいて、音声文全体の認識を示す最初の研究である。
論文 参考訳(メタデータ) (2021-06-16T11:20:02Z) - Multi-view Temporal Alignment for Non-parallel Articulatory-to-Acoustic
Speech Synthesis [59.623780036359655]
A2A(Articulatory-to-Aoustic)合成は、音声刺激器のキャプチャされた動きから可聴音声の生成を指します。
この手法には、病気や怪我のためにもはや話せない人々への口頭コミュニケーションの回復など、多くの応用がある。
本稿では,多視点学習の理論に基づく問題解決法を提案する。
論文 参考訳(メタデータ) (2020-12-30T15:09:02Z) - Respiratory Distress Detection from Telephone Speech using Acoustic and
Prosodic Features [27.77184655808592]
本研究は,よく知られた音響・韻律的特徴を用いた呼吸困難の自動検出に関する予備的知見を要約する。
音声サンプルはバングラデシュの医療機関から未確認の遠隔医療電話から収集される。
呼吸困難は、声質、発声パターン、発声時間、発声時間などの音声特徴を変化させる可能性があると仮定する。
論文 参考訳(メタデータ) (2020-11-15T13:32:45Z) - RespVAD: Voice Activity Detection via Video-Extracted Respiration
Patterns [5.716047866174048]
音声活動検出(Voice Activity Detection, VAD)とは、音声やビデオなどのデジタル信号における人間の音声の領域を識別するタスクである。
呼吸は 音声生成の 主要なエネルギー源となります
話者のビデオから抽出した呼吸パターンを用いた音声非依存型VAD手法を開発した。
論文 参考訳(メタデータ) (2020-08-21T13:26:24Z) - Speaker and Posture Classification using Instantaneous Intraspeech
Breathing Features [2.578242050187029]
音声内呼吸音を用いた話者と姿勢の分類法を提案する。
呼吸音,87%話者分類,98%姿勢分類の精度が得られた。
論文 参考訳(メタデータ) (2020-05-25T17:00:26Z) - Robust Deep Learning Framework For Predicting Respiratory Anomalies and
Diseases [26.786743524562322]
本稿では,呼吸音の記録から呼吸器疾患を検出するための,堅牢な深層学習フレームワークを提案する。
バックエンドのディープラーニングモデルは、特徴を呼吸器疾患または異常のクラスに分類する。
ICBHIベンチマークを用いて実験を行い, 音の分類能力を評価する。
論文 参考訳(メタデータ) (2020-01-21T15:26:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。