論文の概要: Moonshine: Speech Recognition for Live Transcription and Voice Commands
- arxiv url: http://arxiv.org/abs/2410.15608v2
- Date: Tue, 22 Oct 2024 13:55:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:29:36.619302
- Title: Moonshine: Speech Recognition for Live Transcription and Voice Commands
- Title(参考訳): Moonshine:Live Transcription and Voice Commandsのための音声認識
- Authors: Nat Jeffries, Evan King, Manjunath Kudlur, Guy Nicholson, James Wang, Pete Warden,
- Abstract要約: Moonshineは、ライブの文字起こしと音声コマンド処理に最適化された音声認識モデルのファミリーである。
Moonshineはエンコーダ・デコーダ変換アーキテクチャをベースにしており、従来の絶対位置埋め込みの代わりにロータリー位置埋め込み(Rotary Position Embedding, RoPE)を採用している。
OpenAIのWhisper small-enをベンチマークすると、Moonshine Tinyは10秒の音声セグメントを変換するための計算要求を5倍削減することを示した。
- 参考スコア(独自算出の注目度): 2.019436380690642
- License:
- Abstract: This paper introduces Moonshine, a family of speech recognition models optimized for live transcription and voice command processing. Moonshine is based on an encoder-decoder transformer architecture and employs Rotary Position Embedding (RoPE) instead of traditional absolute position embeddings. The model is trained on speech segments of various lengths, but without using zero-padding, leading to greater efficiency for the encoder during inference time. When benchmarked against OpenAI's Whisper tiny-en, Moonshine Tiny demonstrates a 5x reduction in compute requirements for transcribing a 10-second speech segment while incurring no increase in word error rates across standard evaluation datasets. These results highlight Moonshine's potential for real-time and resource-constrained applications.
- Abstract(参考訳): 本稿では,実写と音声コマンド処理に最適化された音声認識モデルであるMoonshineを紹介する。
Moonshineはエンコーダ・デコーダ変換アーキテクチャをベースにしており、従来の絶対位置埋め込みの代わりにロータリー位置埋め込み(Rotary Position Embedding, RoPE)を採用している。
モデルは、様々な長さの音声セグメントで訓練されるが、ゼロパディングを使わずに、推論時間の間にエンコーダの効率が向上する。
OpenAIのWhisper Small-enをベンチマークすると、Moonshine Tinyは10秒の音声セグメントの書き起こしの計算要求を5倍削減し、標準評価データセット間でワードエラー率が上昇しないことを示した。
これらの結果は、リアルタイムおよびリソース制約のあるアプリケーションに対するMoonshineのポテンシャルを浮き彫りにしている。
関連論文リスト
- CrisperWhisper: Accurate Timestamps on Verbatim Speech Transcriptions [0.5120567378386615]
より冗長な音声の書き起こしを生成するために、モデルを微調整する。
複数の話者に対する頑健さと背景雑音を高めるために,我々はいくつかの手法を採用している。
論文 参考訳(メタデータ) (2024-08-29T14:52:42Z) - Decoder-only Architecture for Streaming End-to-end Speech Recognition [45.161909551392085]
ブロックワイド自動音声認識(ASR)におけるデコーダのみのアーキテクチャを提案する。
提案手法では,ブロックワイズ音声サブネットワークを用いて,CTC出力とコンテキスト埋め込みを用いて音声特徴を圧縮し,デコーダのプロンプトとして順次提供する。
提案するデコーダのみのストリーミングASRは,ベースラインモデルの2倍の速度で,LibriSpeechテストの他セットの単語誤り率を8%削減する。
論文 参考訳(メタデータ) (2024-06-23T13:50:08Z) - Large Language Models are Efficient Learners of Noise-Robust Speech
Recognition [65.95847272465124]
大規模言語モデル(LLM)の最近の進歩は、自動音声認識(ASR)のための生成誤り訂正(GER)を促進している。
本研究では,このベンチマークをノイズの多い条件に拡張し,GERのデノナイジングをLLMに教えることができるかを検討する。
最新のLLM実験では,単語誤り率を最大53.9%改善し,新たなブレークスルーを実現している。
論文 参考訳(メタデータ) (2024-01-19T01:29:27Z) - Zero Resource Code-switched Speech Benchmark Using Speech Utterance Pairs For Multiple Spoken Languages [49.6922490267701]
我々は,自己教師型音声エンコーダのコード切替能力を評価するために,ゼロリソースコード切替音声ベンチマークを導入した。
本稿では,音声エンコーダのコードスイッチング能力を評価するために,離散単位に基づく言語モデリングのベースラインシステムを紹介する。
論文 参考訳(メタデータ) (2023-10-04T17:58:11Z) - Improving vision-inspired keyword spotting using dynamic module skipping
in streaming conformer encoder [47.1504323202954]
本稿では,ストリーミングオーディオを処理可能な入力依存型動的深度アーキテクチャを提案する。
具体的には、トレーニング可能なバイナリゲートを備えたコンバータエンコーダを拡張し、入力オーディオに従ってネットワークモジュールを動的にスキップできるようにする。
論文 参考訳(メタデータ) (2023-08-31T21:25:57Z) - EXPRESSO: A Benchmark and Analysis of Discrete Expressive Speech
Resynthesis [49.04496602282718]
テキストなし音声合成のための高品質な表現型音声データセットであるExpressoを紹介する。
このデータセットは、26の自発的表現スタイルで描画された読み上げ音声と即興対話の両方を含む。
自己監督型離散エンコーダの自動計測値を用いて再生品質を評価する。
論文 参考訳(メタデータ) (2023-08-10T17:41:19Z) - Introducing Semantics into Speech Encoders [91.37001512418111]
本研究では,大言語モデルからの意味情報をラベル付き音声書き起こしのない自己教師付き音声エンコーダに組み込む教師なしの手法を提案する。
提案手法は,100時間以上のラベル付き音声書き起こしにおける教師あり手法と類似した性能を実現する。
論文 参考訳(メタデータ) (2022-11-15T18:44:28Z) - Pre-Training Transformer Decoder for End-to-End ASR Model with Unpaired
Speech Data [145.95460945321253]
本稿では,音響単位,すなわち擬似符号を用いたエンコーダ・デコーダネットワークのための2つの事前学習タスクを提案する。
提案したSpeech2Cは,デコーダを事前学習することなく,単語誤り率(WER)を19.2%削減できる。
論文 参考訳(メタデータ) (2022-03-31T15:33:56Z) - Advanced Long-context End-to-end Speech Recognition Using
Context-expanded Transformers [56.56220390953412]
コンフォーメータアーキテクチャを導入することで、精度をさらに向上させ、以前の作業を拡張します。
拡張トランスフォーマーは、最先端のエンドツーエンドのASR性能を提供する。
論文 参考訳(メタデータ) (2021-04-19T16:18:00Z) - Improving Uyghur ASR systems with decoders using morpheme-based language
models [3.670848852348134]
ウイグル語は少数言語である。
THUYG-20は現在、ウイグル語音声の唯一のオープンソースデータセットである。
形態素に基づくデコーダ MLDG-Decoder を開発した。
論文 参考訳(メタデータ) (2020-03-03T14:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。