論文の概要: Deep Learning for Prominence Detection in Children's Read Speech
- arxiv url: http://arxiv.org/abs/2104.05488v2
- Date: Tue, 13 Apr 2021 04:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 11:28:15.688467
- Title: Deep Learning for Prominence Detection in Children's Read Speech
- Title(参考訳): 読み上げ音声における特徴検出のための深層学習
- Authors: Kamini Sabu, Mithilesh Vaidya, Preeti Rao
- Abstract要約: 子どもの読書記録のラベル付きデータセットを,話者に依存しない著名単語の検出のために検討する。
事前調整されたランダムフォレストアンサンブル予測器をRNNシーケンスに置き換え、潜在的なコンテキスト依存性を利用する。
深層学習を用いて、基本周波数、強度、スペクトル形状の低レベル音響輪郭から単語レベル特徴を得る。
- 参考スコア(独自算出の注目度): 13.041607703862724
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Expressive reading, considered the defining attribute of oral reading
fluency, comprises the prosodic realization of phrasing and prominence. In the
context of evaluating oral reading, it helps to establish the speaker's
comprehension of the text. We consider a labeled dataset of children's reading
recordings for the speaker-independent detection of prominent words using
acoustic-prosodic and lexico-syntactic features. A previous well-tuned random
forest ensemble predictor is replaced by an RNN sequence classifier to exploit
potential context dependency across the longer utterance. Further, deep
learning is applied to obtain word-level features from low-level acoustic
contours of fundamental frequency, intensity and spectral shape in an
end-to-end fashion. Performance comparisons are presented across the different
feature types and across different feature learning architectures for prominent
word prediction to draw insights wherever possible.
- Abstract(参考訳): 表現的読解は、口頭読解流の特質とされ、言い回しと発音の韻律的実現を包含する。
オーラルリーディングの評価の文脈では、話者のテキスト理解を確立するのに役立つ。
本研究は,音声韻律的特徴とレキシコ・シンタクティック特徴を用いた話者非依存な単語検出のための,子どもの読み書きのラベル付きデータセットについて考察する。
事前調整されたランダムな森林アンサンブル予測器はRNNシーケンス分類器に置き換えられ、より長い発話における潜在的なコンテキスト依存性を利用する。
さらに,エンド・ツー・エンド方式で基本周波数,強度,スペクトル形状の低レベル音響輪郭から単語レベル特徴を得るために深層学習を適用した。
パフォーマンスの比較は、さまざまな機能タイプと、さまざまな機能学習アーキテクチャで示され、目立った単語予測は、可能な限り洞察を引き出す。
関連論文リスト
- Speech Rhythm-Based Speaker Embeddings Extraction from Phonemes and
Phoneme Duration for Multi-Speaker Speech Synthesis [16.497022070614236]
本稿では,ターゲット話者による発話数を用いて,音素長をモデル化するための音声リズムに基づく話者埋め込み手法を提案する。
提案手法の新たな特徴は、音素とその持続時間から抽出されたリズムに基づく埋め込みであり、発声リズムに関連することが知られている。
論文 参考訳(メタデータ) (2024-02-11T02:26:43Z) - Paralinguistics-Enhanced Large Language Modeling of Spoken Dialogue [71.15186328127409]
パラリンGPT(Paralin GPT)
モデルは、シリアライズされたマルチタスクフレームワーク内の入力プロンプトとして、テキスト、音声埋め込み、およびパラ言語属性の会話コンテキストを取る。
音声対話データセットとして,感情ラベルをパラ言語属性として含むSwitchboard-1コーパスを利用する。
論文 参考訳(メタデータ) (2023-12-23T18:14:56Z) - Learning Disentangled Speech Representations [0.412484724941528]
SynSpeechは、非絡み合った音声表現の研究を可能にするために設計された、新しい大規模合成音声データセットである。
本稿では, 線形探索と教師付きアンタングル化指標を併用して, アンタングル化表現学習手法を評価する枠組みを提案する。
SynSpeechは、さまざまな要因のベンチマークを促進し、ジェンダーや話し方のようなより単純な機能の切り離しを期待できると同時に、話者アイデンティティのような複雑な属性を分離する際の課題を強調します。
論文 参考訳(メタデータ) (2023-11-04T04:54:17Z) - Audio-Visual Neural Syntax Acquisition [91.14892278795892]
視覚的音声からの句構造誘導について検討する。
本稿では,音声を聴いたり,画像を見たりすることでフレーズ構造を学習するAV-NSL(Audio-Visual Neural Syntax Learner)について述べる。
論文 参考訳(メタデータ) (2023-10-11T16:54:57Z) - Learning Separable Hidden Unit Contributions for Speaker-Adaptive Lip-Reading [73.59525356467574]
話者自身の特徴は、ほとんど顔画像や浅いネットワークを持つ単一の画像によって常にうまく表現できる。
話し手によって表現される音声コンテンツに付随するきめ細かい動的特徴には、常に深いシーケンシャルネットワークが必要である。
私たちのアプローチは、既存の方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2023-10-08T07:48:25Z) - Learning utterance-level representations through token-level acoustic
latents prediction for Expressive Speech Synthesis [3.691712391306624]
細粒度潜在空間もまた粗粒度情報を捉えており、これは多彩な韻律表現を捉えるために潜在空間の次元が大きくなるにつれて明らかである。
本稿では、まず、豊富な音声属性をトークンレベル潜在空間にキャプチャし、入力テキストを付与した先行ネットワークを個別に訓練し、前ステップで抽出した音素レベル後潜在音を予測するために、発話レベル表現を学習することでこの問題を軽減する。
論文 参考訳(メタデータ) (2022-11-01T15:17:25Z) - Deep Neural Convolutive Matrix Factorization for Articulatory
Representation Decomposition [48.56414496900755]
この研究は、コンボリューティブスパース行列分解のニューラル実装を用いて、調音データを解釈可能なジェスチャーとジェスチャースコアに分解する。
音素認識実験も実施され、ジェスチャースコアが実際に音韻情報のコード化に成功していることが示された。
論文 参考訳(メタデータ) (2022-04-01T14:25:19Z) - Deep Learning For Prominence Detection In Children's Read Speech [13.041607703862724]
本稿では, 幼児の口臭度評価に際し, 単語検出に係わる特徴を学習するためのセグメント音声波形を用いたシステムを提案する。
単語レベルの特徴とシーケンス情報の両方を取り入れた選択されたCRNN(畳み込みリカレントニューラルネットワーク)フレームワークは、知覚的に動機付けられたSincNetフィルタの恩恵を受けている。
論文 参考訳(メタデータ) (2021-10-27T08:51:42Z) - Leveraging Acoustic and Linguistic Embeddings from Pretrained speech and
language Models for Intent Classification [81.80311855996584]
本研究では,前訓練された音声認識システムから抽出した音響特性と,前訓練された言語モデルから学習した言語特性を用いた新しい意図分類フレームワークを提案する。
ATIS と Fluent 音声コーパスの精度は 90.86% と 99.07% である。
論文 参考訳(メタデータ) (2021-02-15T07:20:06Z) - Speaker Diarization with Lexical Information [59.983797884955]
本研究では,音声認識による語彙情報を活用した話者ダイアリゼーション手法を提案する。
本稿では,話者クラスタリングプロセスに単語レベルの話者回転確率を組み込んだ話者ダイアリゼーションシステムを提案し,全体的なダイアリゼーション精度を向上させる。
論文 参考訳(メタデータ) (2020-04-13T17:16:56Z) - Identification of primary and collateral tracks in stuttered speech [22.921077940732]
臨床およびNLPパースペクティブに着想を得て, 拡散検出のための新しい評価フレームワークを提案する。
本稿では, 半方向性インタビューのコーパスから, 強制整列型ディスフルエンシデータセットを提案する。
単語ベースのスパン特徴を用いることで,音声による予測のベースラインよりも優れることを示す。
論文 参考訳(メタデータ) (2020-03-02T16:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。