論文の概要: TEVR: Improving Speech Recognition by Token Entropy Variance Reduction
- arxiv url: http://arxiv.org/abs/2206.12693v1
- Date: Sat, 25 Jun 2022 16:42:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-03 04:05:26.955274
- Title: TEVR: Improving Speech Recognition by Token Entropy Variance Reduction
- Title(参考訳): TEVR:トークンエントロピー可変化による音声認識の改善
- Authors: Hajo Nils Krabbenh\"oft, Erhardt Barth
- Abstract要約: TEVRは、言語モデルに対するトークンエントロピーの変動を最小限に抑えるために設計された音声認識モデルである。
9億のパラメータを持つドイツのASRモデルをトレーニングし、CommonVoice Germanでは、TEVRは非常に競争力のある3.64%のワードエラー率を示している。
- 参考スコア(独自算出の注目度): 0.10614330770386171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents TEVR, a speech recognition model designed to minimize the
variation in token entropy w.r.t. to the language model. This takes advantage
of the fact that if the language model will reliably and accurately predict a
token anyway, then the acoustic model doesn't need to be accurate in
recognizing it. We train German ASR models with 900 million parameters and show
that on CommonVoice German, TEVR scores a very competitive 3.64% word error
rate, which outperforms the best reported results by a relative 16.89%
reduction in word error rate. We hope that releasing our fully trained speech
recognition pipeline to the community will lead to privacy-preserving offline
virtual assistants in the future.
- Abstract(参考訳): 本稿では,言語モデルに対するトークンエントロピーの変動を最小限に抑えるために設計された音声認識モデルTEVRを提案する。
このことは、もし言語モデルが確実に正確にトークンを予測できるなら、音響モデルはそれを認識するのに正確である必要はないという事実を生かしている。
9億のパラメータを持つドイツのasrモデルをトレーニングし、commonvoice germanでは、tevrが非常に競争力のある3.64%の単語誤り率を示している。
完全に訓練された音声認識パイプラインをコミュニティにリリースすることで、将来プライバシー保護のオフラインバーチャルアシスタントが実現することを期待しています。
関連論文リスト
- Automatic Speech Recognition for the Ika Language [0.0]
IkaのNew Testament Bible Multilingualから収集した高品質な音声データセット上で、事前学習したwav2vec 2.0の大規模翻訳を行う。
この結果から,微調整による事前学習モデルでは単語誤り率(WER)が0.5377,文字誤り率(CER)が0.2651となり,学習時間は1時間を超えることがわかった。
論文 参考訳(メタデータ) (2024-10-01T11:56:42Z) - Multilingual Audio-Visual Speech Recognition with Hybrid CTC/RNN-T Fast Conformer [59.57249127943914]
本稿では,複数の改良を加えた多言語音声認識モデルを提案する。
我々は、6つの異なる言語に対する音声視覚訓練データの量を増やし、重複しない多言語データセットの自動書き起こしを生成する。
提案モデルでは, LRS3データセット上での新たな最先端性能を実現し, WERは0.8%に達した。
論文 参考訳(メタデータ) (2024-03-14T01:16:32Z) - Multilingual self-supervised speech representations improve the speech
recognition of low-resource African languages with codeswitching [65.74653592668743]
微細な自己教師型多言語表現は絶対単語誤り率を最大20%削減する。
訓練データに制限のある状況では、自己教師付き表現を微調整することが、より良いパフォーマンスと実行可能なソリューションである。
論文 参考訳(メタデータ) (2023-11-25T17:05:21Z) - Real-time Detection of AI-Generated Speech for DeepFake Voice Conversion [4.251500966181852]
本研究は,8人の有名な人物の実際の音声と,その音声を検索型音声変換を用いて互いに変換する。
エクストリーム・グラディエント・ブースティング・モデルは99.3%の平均的な分類精度を達成でき、音声の1秒あたり0.004ミリ秒のリアルタイムな分類が可能であることが判明した。
論文 参考訳(メタデータ) (2023-08-24T12:26:15Z) - From English to More Languages: Parameter-Efficient Model Reprogramming
for Cross-Lingual Speech Recognition [50.93943755401025]
言語間音声認識のためのニューラルモデル再プログラミングに基づく新しいパラメータ効率学習フレームワークを提案する。
我々は、学習可能な事前学習機能強化に焦点を当てた、異なる補助的ニューラルネットワークアーキテクチャを設計する。
提案手法は,既存のASRチューニングアーキテクチャとその拡張性能を自己監督的損失で向上させる。
論文 参考訳(メタデータ) (2023-01-19T02:37:56Z) - Multilingual Zero Resource Speech Recognition Base on Self-Supervise
Pre-Trained Acoustic Models [14.887781621924255]
本稿では,事前学習モデルの使用を単語レベルのゼロリソース音声認識に拡張するための最初の試みである。
IPA音素の書き起こしで事前訓練されたモデルを微調整し、余分なテキストで訓練された言語モデルで復号する。
Wav2vec 2.0とHuBERTモデルの実験により、この手法は一部の言語で単語誤り率を20%以下に抑えることができることが示された。
論文 参考訳(メタデータ) (2022-10-13T12:11:18Z) - Wav2vec-Switch: Contrastive Learning from Original-noisy Speech Pairs
for Robust Speech Recognition [52.71604809100364]
音声の文脈化表現に雑音のロバスト性をエンコードするwav2vec-Switchを提案する。
具体的には、オリジナルノイズの多い音声ペアを同時にwav2vec 2.0ネットワークに供給する。
既存のコントラスト学習タスクに加えて、原音声と雑音音声の量子化表現を追加の予測対象に切り替える。
論文 参考訳(メタデータ) (2021-10-11T00:08:48Z) - Unsupervised Speech Recognition [55.864459085947345]
wav2vec-Uは、ラベル付きデータなしで音声認識モデルを訓練する方法である。
我々は、自己教師付き音声表現を活用して、ラベルなし音声をセグメント化し、これらの表現から相手の訓練を通して音素へのマッピングを学習する。
より大きな英語のLibrispeechベンチマークでは、wav2vec-Uは、わずか2年前の960時間のラベル付きデータに基づいてトレーニングされた最も優れたシステムに匹敵する、他のテストで5.9の単語エラー率を達成した。
論文 参考訳(メタデータ) (2021-05-24T04:10:47Z) - Unsupervised Cross-lingual Representation Learning for Speech
Recognition [63.85924123692923]
XLSRは、複数の言語における音声の生波形から1つのモデルを事前学習することで、言語間音声表現を学習する。
我々は、マスク付き潜在音声表現よりも対照的なタスクを解くことで訓練されたwav2vec 2.0を構築した。
実験により、言語間事前学習はモノリンガル事前訓練よりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2020-06-24T18:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。