論文の概要: Deep LSTM Spoken Term Detection using Wav2Vec 2.0 Recognizer
- arxiv url: http://arxiv.org/abs/2210.11885v1
- Date: Fri, 21 Oct 2022 11:26:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:56:52.006444
- Title: Deep LSTM Spoken Term Detection using Wav2Vec 2.0 Recognizer
- Title(参考訳): Wav2Vec 2.0認識器を用いた深部LSTM検出
- Authors: Jan \v{S}vec, Jan Lehe\v{c}ka, Lubo\v{s} \v{S}m\'idl
- Abstract要約: 本稿では,DNN-HMMハイブリッドASRの従来の発音語彙に含まれる知識を,グラフベースのWav2Vecの文脈に転送するブートストラップ手法について述べる。
提案手法は、DNN-HMMハイブリッドASRと音素認識器の組み合わせにより、英語とチェコ語の両方のMALACHデータに対する大きなマージンで、これまで公表されていたシステムより優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, the standard hybrid DNN-HMM speech recognizers are
outperformed by the end-to-end speech recognition systems. One of the very
promising approaches is the grapheme Wav2Vec 2.0 model, which uses the
self-supervised pretraining approach combined with transfer learning of the
fine-tuned speech recognizer. Since it lacks the pronunciation vocabulary and
language model, the approach is suitable for tasks where obtaining such models
is not easy or almost impossible.
In this paper, we use the Wav2Vec speech recognizer in the task of spoken
term detection over a large set of spoken documents. The method employs a deep
LSTM network which maps the recognized hypothesis and the searched term into a
shared pronunciation embedding space in which the term occurrences and the
assigned scores are easily computed.
The paper describes a bootstrapping approach that allows the transfer of the
knowledge contained in traditional pronunciation vocabulary of DNN-HMM hybrid
ASR into the context of grapheme-based Wav2Vec. The proposed method outperforms
the previously published system based on the combination of the DNN-HMM hybrid
ASR and phoneme recognizer by a large margin on the MALACH data in both English
and Czech languages.
- Abstract(参考訳): 近年,標準ハイブリッドDNN-HMM音声認識器は,エンドツーエンド音声認識システムにより性能が向上している。
非常に有望なアプローチの1つは、grapheme wav2vec 2.0モデルで、微調整された音声認識器の転送学習と組み合わせて、自己教師付き事前学習アプローチを使用する。
発音語彙や言語モデルに欠けているため、そのようなモデルを得るのが容易あるいはほとんど不可能であるタスクに適している。
本稿では,Wav2Vec音声認識器を用いて,大量の音声文書を対象とした発話語検出を行う。
認識された仮説と探索された項を、単語の発生と割り当てられたスコアを容易に計算できる共有発音埋め込み空間にマッピングする深層LSTMネットワークを用いる。
本稿では,DNN-HMMハイブリッドASRの従来の発音語彙に含まれる知識を,グラフベースのWav2Vecの文脈に転送するブートストラップ手法について述べる。
提案手法は、DNN-HMMハイブリッドASRと音素認識器の組み合わせにより、英語とチェコ語の両方のMALACHデータに対する大きなマージンで、これまで公表されていたシステムより優れている。
関連論文リスト
- Improved Contextual Recognition In Automatic Speech Recognition Systems
By Semantic Lattice Rescoring [4.819085609772069]
本稿では,意味的格子処理によるASRシステム内における文脈認識の高度化のための新しい手法を提案する。
提案手法は,隠れマルコフモデルとガウス混合モデル(HMM-GMM)とディープニューラルネットワーク(DNN)モデルを用いて,精度を向上する。
本稿では,実験分析によるLibriSpeechデータセット上でのフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2023-10-14T23:16:05Z) - One model to rule them all ? Towards End-to-End Joint Speaker
Diarization and Speech Recognition [50.055765860343286]
本稿では,共同話者ダイアリゼーションと音声認識のための新しい枠組みを提案する。
このフレームワークはSLIDARと呼ばれ、任意の長さの入力を処理でき、任意の数の話者を処理できる。
AMIコーパスからの単調録音実験により, 近接話者と遠距離話者の両方の発話シナリオにおける手法の有効性が確認された。
論文 参考訳(メタデータ) (2023-10-02T23:03:30Z) - Learning Speech Representation From Contrastive Token-Acoustic
Pretraining [57.08426714676043]
本研究では、2つのエンコーダを用いて音素と音声を複数モーダル空間に導入するCTAP(Contrastive Token-Acoustic Pretraining)を提案する。
提案したCTAPモデルは、210k音声と音素ペアで訓練され、最小教師付きTS、VC、ASRを実現する。
論文 参考訳(メタデータ) (2023-09-01T12:35:43Z) - AV-data2vec: Self-supervised Learning of Audio-Visual Speech
Representations with Contextualized Target Representations [88.30635799280923]
AV-data2vecを導入し、文脈化表現の予測に基づいて音声・視覚表現を構築する。
LRS3の結果は、AV-data2vecが、同じ量のデータとモデルサイズで既存のメソッドを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-10T02:55:52Z) - L2 proficiency assessment using self-supervised speech representations [35.70742768910494]
本研究は,音声認識を必要とせず,自己教師型音声表現に基づく初期分析を大規模習熟度試験に拡張する。
自己教師型wav2vec 2.0システムの性能は、高性能の手作り評価システムとBERTベースのテキストシステムと比較される。
wav2vec 2.0ベースのシステムは応答の性質に敏感であることがわかったが、音声の書き起こしを必要とするシステムと同等の性能を持つように構成することができる。
論文 参考訳(メタデータ) (2022-11-16T11:47:20Z) - Contextual-Utterance Training for Automatic Speech Recognition [65.4571135368178]
本稿では,過去と将来の文脈発話を利用した文脈発話訓練手法を提案する。
また,自動音声認識(ASR)システムをストリーミングするための2モード文脈発話訓練手法を提案する。
提案手法により、WERと平均最後のトークン放出遅延を6%以上、40ms以上削減できる。
論文 参考訳(メタデータ) (2022-10-27T08:10:44Z) - Wav2Seq: Pre-training Speech-to-Text Encoder-Decoder Models Using Pseudo
Languages [58.43299730989809]
本稿では,音声データに対するエンコーダ・デコーダモデルの両部分を事前学習するための,最初の自己教師型アプローチであるWav2Seqを紹介する。
我々は、コンパクトな離散表現として擬似言語を誘導し、自己教師付き擬似音声認識タスクを定式化する。
このプロセスは独自のものであり、低コストの第2段階のトレーニングとして適用することができる。
論文 参考訳(メタデータ) (2022-05-02T17:59:02Z) - Self-supervised Learning with Random-projection Quantizer for Speech
Recognition [51.24368930992091]
音声認識のためのシンプルで効果的な自己教師型学習手法を提案する。
このアプローチは、離散ラベルの形で、マスキングされた音声信号を予測するモデルを学ぶ。
非ストリーミングモデルを用いた自己教師付き学習を用いて、従来の作業と同じような単語エラー率を達成する。
論文 参考訳(メタデータ) (2022-02-03T21:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。