論文の概要: token2vec: A Joint Self-Supervised Pre-training Framework Using Unpaired
Speech and Text
- arxiv url: http://arxiv.org/abs/2210.16755v1
- Date: Sun, 30 Oct 2022 06:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:36:49.355957
- Title: token2vec: A Joint Self-Supervised Pre-training Framework Using Unpaired
Speech and Text
- Title(参考訳): token2vec: unpaired speechとtextを用いた自己教師付き事前学習フレームワーク
- Authors: Xianghu Yue and Junyi Ao and Xiaoxue Gao and Haizhou Li
- Abstract要約: token2vecは、音声の離散表現に基づく、未ペア音声とテキストのための新しい事前学習フレームワークである。
実験の結果、 token2vec は様々な音声のみの事前学習ベースラインよりも大幅に優れており、WER の相対的な減少率は17.7%である。
- 参考スコア(独自算出の注目度): 65.04385919645395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised pre-training has been successful in both text and speech
processing. Speech and text offer different but complementary information. The
question is whether we are able to perform a speech-text joint pre-training on
unpaired speech and text. In this paper, we take the idea of self-supervised
pre-training one step further and propose token2vec, a novel joint pre-training
framework for unpaired speech and text based on discrete representations of
speech. Firstly, due to the distinct characteristics between speech and text
modalities, where speech is continuous while text is discrete, we first
discretize speech into a sequence of discrete speech tokens to solve the
modality mismatch problem. Secondly, to solve the length mismatch problem,
where the speech sequence is usually much longer than text sequence, we convert
the words of text into phoneme sequences and randomly repeat each phoneme in
the sequences. Finally, we feed the discrete speech and text tokens into a
modality-agnostic Transformer encoder and pre-train with token-level masking
language modeling (tMLM). Experiments show that token2vec is significantly
superior to various speech-only pre-training baselines, with up to 17.7%
relative WER reduction. Token2vec model is also validated on a non-ASR task,
i.e., spoken intent classification, and shows good transferability.
- Abstract(参考訳): 自己教師付き事前学習はテキスト処理と音声処理の両方で成功している。
音声とテキストは異なるが相補的な情報を提供する。
質問は、未使用の音声とテキストの事前学習を行うことができるかどうかである。
本稿では, 自己教師付き事前学習のアイデアをさらに一歩進め, 音声の離散表現に基づく非ペア音声とテキストのための新しい事前学習フレームワークであるtoken2vecを提案する。
まず, 音声が連続的であり, テキストが離散的であるような音声とテキストのモダリティの相違から, まず音声を離散的な音声トークンの列に識別し, モダリティのミスマッチ問題を解決する。
次に、通常、音声のシーケンスがテキストのシーケンスよりもはるかに長い長さのミスマッチ問題を解決するために、テキストの単語を音素列に変換し、各音素をランダムに繰り返す。
最後に、離散音声とテキストトークンをモダリティ非依存トランスフォーマーエンコーダに供給し、トークンレベルのマスキング言語モデル(tmlm)で事前学習する。
実験の結果、 token2vec は様々な音声のみの事前学習ベースラインよりも大幅に優れており、WER の相対的な減少率は17.7%である。
Token2vecモデルは非ASRタスク、すなわち音声意図分類でも検証され、優れた伝達性を示す。
関連論文リスト
- Scaling Speech-Text Pre-training with Synthetic Interleaved Data [31.77653849518526]
音声言語モデル(SpeechLM)は音声入力を受け入れ、音声出力を生成し、より自然な人間とコンピュータの相互作用を可能にする。
従来のSpeechLMの開発手法は、教師なし音声データとパラレル音声テキストデータの可用性の制限によって制約されている。
本稿では,テキストコーパスから得られた大規模合成インターリーブデータを活用することによって,音声テキスト事前学習のスケールアップを行う手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T17:19:09Z) - MMSpeech: Multi-modal Multi-task Encoder-Decoder Pre-training for Speech
Recognition [75.12948999653338]
マンダリン自動音声認識(ASR)のためのマルチタスクエンコーダ-デコーダ事前学習フレームワーク(MMSpeech)を提案する。
我々は、音声とテキストデータを用いた5つの自己教師付きタスクを含むマルチタスク学習フレームワークを採用する。
AISHELL-1を用いた実験により,提案手法は従来手法と比較して40%以上の改善が得られた。
論文 参考訳(メタデータ) (2022-11-29T13:16:09Z) - SpeechLM: Enhanced Speech Pre-Training with Unpaired Textual Data [100.46303484627045]
本稿では,事前定義した統一表現と音声とテキストの事前学習を協調させるクロスモーダル音声言語モデル(SpeechLM)を提案する。
具体的には、音声とテキストのモダリティをブリッジするために、2つの別の離散トークン化器を導入する。
音声認識, 音声翻訳, ユニバーサル表現評価フレームワーク SUPERB など, 様々な音声言語処理タスクにおける音声LM の評価を行った。
論文 参考訳(メタデータ) (2022-09-30T09:12:10Z) - Unified Speech-Text Pre-training for Speech Translation and Recognition [113.31415771943162]
音声認識のためのエンコーダ・デコーダ・モデリング・フレームワークにおいて,音声とテキストを協調的に事前学習する手法について述べる。
提案手法は,4つの自己教師付きサブタスクを組み込んだクロスモーダル学習手法である。
MuST-C音声翻訳データセットの最先端よりも1.7から2.3BLEUの改善が達成されている。
論文 参考訳(メタデータ) (2022-04-11T20:59:51Z) - SLAM: A Unified Encoder for Speech and Language Modeling via Speech-Text
Joint Pre-Training [33.02912456062474]
我々は、ラベルなしテキストのBERT目的とラベルなし音声のw2v-BERT目的とを併用した単一のエンコーダを構築する。
プレトレーニング中に音声データとテキストデータの両方を組み込むことで、CoVoST2音声翻訳における下流品質が大幅に向上することが実証された。
論文 参考訳(メタデータ) (2021-10-20T00:59:36Z) - Zero-Shot Text-to-Speech for Text-Based Insertion in Audio Narration [62.75234183218897]
話者の訓練データなしで自然かつ一貫性のあるターゲット音声を生成する一段階の文脈認識フレームワークを提案する。
変換器をベースとしたデコーダを用いて,編集音声のメルスペクトルを生成する。
これは最近のゼロショット TTS エンジンを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-09-12T04:17:53Z) - Direct speech-to-speech translation with discrete units [64.19830539866072]
本稿では、中間テキスト生成に頼ることなく、ある言語から別の言語に音声を変換する直接音声音声翻訳(S2ST)モデルを提案する。
そこで本稿では,ラベルなし音声コーパスから学習した自己教師付き離散表現の予測を提案する。
対象のテキスト書き起こしが利用可能となると、同一の推論パスで2つのモード出力(音声とテキスト)を同時に生成できる、共同音声認識とテキストトレーニングを備えたマルチタスク学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-07-12T17:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。