論文の概要: Simple and Effective Unsupervised Speech Translation
- arxiv url: http://arxiv.org/abs/2210.10191v1
- Date: Tue, 18 Oct 2022 22:26:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 15:12:45.207788
- Title: Simple and Effective Unsupervised Speech Translation
- Title(参考訳): 単純で効果的な教師なし音声翻訳
- Authors: Changhan Wang, Hirofumi Inaguma, Peng-Jen Chen, Ilia Kulikov, Yun
Tang, Wei-Ning Hsu, Michael Auli, Juan Pino
- Abstract要約: ラベル付きデータなしで音声翻訳システムを構築するための,シンプルで効果的な手法について検討する。
事前学習された音声モデルに対する教師なし領域適応手法を提案する。
実験により、教師なし音声からテキストへの翻訳は、それまでの教師なし状態よりも優れていたことが示されている。
- 参考スコア(独自算出の注目度): 68.25022245914363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The amount of labeled data to train models for speech tasks is limited for
most languages, however, the data scarcity is exacerbated for speech
translation which requires labeled data covering two different languages. To
address this issue, we study a simple and effective approach to build speech
translation systems without labeled data by leveraging recent advances in
unsupervised speech recognition, machine translation and speech synthesis,
either in a pipeline approach, or to generate pseudo-labels for training
end-to-end speech translation models. Furthermore, we present an unsupervised
domain adaptation technique for pre-trained speech models which improves the
performance of downstream unsupervised speech recognition, especially for
low-resource settings. Experiments show that unsupervised speech-to-text
translation outperforms the previous unsupervised state of the art by 3.2 BLEU
on the Libri-Trans benchmark, on CoVoST 2, our best systems outperform the best
supervised end-to-end models (without pre-training) from only two years ago by
an average of 5.0 BLEU over five X-En directions. We also report competitive
results on MuST-C and CVSS benchmarks.
- Abstract(参考訳): 音声タスクのモデルを訓練するためのラベル付きデータの量は、ほとんどの言語では限られているが、2つの異なる言語をカバーするラベル付きデータを必要とする音声翻訳では、データ不足が悪化している。
この問題に対処するために,教師なし音声認識,機械翻訳,音声合成の最近の進歩を活用してラベル付きデータなしで音声翻訳システムを構築するための,シンプルで効果的なアプローチをパイプラインアプローチ,あるいはエンドツーエンドの音声翻訳モデルのトレーニングのための擬似ラベルを生成する。
さらに、特に低リソース環境において、下流の教師なし音声認識の性能を向上させる事前訓練された音声モデルに対する教師なし領域適応手法を提案する。
実験により、教師なし音声テキスト翻訳は、Libri-Transベンチマークで3.2 BLEUで、CoVoST 2では、わずか2年前から5つのX-En方向の平均5.0 BLEUで、最高の教師なしエンドツーエンドモデル(事前学習なし)よりも優れています。
また, MuST-C および CVSS ベンチマークの競合結果についても報告する。
関連論文リスト
- Improving Cascaded Unsupervised Speech Translation with Denoising
Back-translation [70.33052952571884]
我々は,任意のペアデータを活用することなく,カスケード音声翻訳システムを構築することを提案する。
教師なしのシステムをトレーニングし、CoVoST 2 と CVSS で結果を評価するために、完全にペア化されたデータを使用します。
論文 参考訳(メタデータ) (2023-05-12T13:07:51Z) - Speech-to-Speech Translation For A Real-world Unwritten Language [62.414304258701804]
本研究では、ある言語から別の言語に音声を翻訳する音声音声翻訳(S2ST)について研究する。
我々は、トレーニングデータ収集、モデル選択、ベンチマークデータセットのリリースからエンドツーエンドのソリューションを提示します。
論文 参考訳(メタデータ) (2022-11-11T20:21:38Z) - Textless Direct Speech-to-Speech Translation with Discrete Speech
Representation [27.182170555234226]
本研究では,テキストの監督なしにエンドツーエンドの直接S2STモデルをトレーニングするための新しいモデルであるTextless Translatotronを提案する。
教師なし音声データで事前訓練された音声エンコーダを両方のモデルに使用すると、提案モデルはトランスラトトロン2とほぼ同等の翻訳品質が得られる。
論文 参考訳(メタデータ) (2022-10-31T19:48:38Z) - Joint Pre-Training with Speech and Bilingual Text for Direct Speech to
Speech Translation [94.80029087828888]
直接音声音声翻訳 (S2ST) は, カスケードされたS2STと比較して, 優れた研究課題である。
直接S2STは、ソース言語の音声からターゲット言語の音声へのコーパスが非常に稀であるため、データ不足の問題に悩まされる。
本稿では,音声から音声への直接翻訳タスクのための音声とバイリンガルのテキストデータとを事前学習したSpeech2Sモデルを提案する。
論文 参考訳(メタデータ) (2022-10-31T02:55:51Z) - Revisiting End-to-End Speech-to-Text Translation From Scratch [48.203394370942505]
E2E (End-to-end speech-to-text translation) はしばしば、音声認識やテキスト翻訳タスクを通じて、そのエンコーダおよび/またはデコーダをソース転写を用いて事前訓練することに依存する。
本稿では,音声翻訳対だけで訓練したE2E STの品質をどの程度改善できるかを考察する。
論文 参考訳(メタデータ) (2022-06-09T15:39:19Z) - Enhanced Direct Speech-to-Speech Translation Using Self-supervised
Pre-training and Data Augmentation [76.13334392868208]
直接音声音声変換(S2ST)モデルは、データ不足の問題に悩まされる。
本研究では,この課題に対処するために,ラベルのない音声データとデータ拡張を用いた自己教師付き事前学習について検討する。
論文 参考訳(メタデータ) (2022-04-06T17:59:22Z) - SLAM: A Unified Encoder for Speech and Language Modeling via Speech-Text
Joint Pre-Training [33.02912456062474]
我々は、ラベルなしテキストのBERT目的とラベルなし音声のw2v-BERT目的とを併用した単一のエンコーダを構築する。
プレトレーニング中に音声データとテキストデータの両方を組み込むことで、CoVoST2音声翻訳における下流品質が大幅に向上することが実証された。
論文 参考訳(メタデータ) (2021-10-20T00:59:36Z) - Multilingual Denoising Pre-training for Neural Machine Translation [132.66750663226287]
mBART(mBART)は、大規模モノリンガルコーパスで事前訓練されたシーケンスからシーケンスまでの自動エンコーダである。
mBARTは、完全なシーケンス・ツー・シーケンスモデルを事前訓練する最初の方法の1つである。
論文 参考訳(メタデータ) (2020-01-22T18:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。