論文の概要: Enhancing Speech-to-Speech Translation with Multiple TTS Targets
- arxiv url: http://arxiv.org/abs/2304.04618v1
- Date: Mon, 10 Apr 2023 14:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 14:41:28.096346
- Title: Enhancing Speech-to-Speech Translation with Multiple TTS Targets
- Title(参考訳): 複数のttsターゲットを用いた音声から音声への翻訳の促進
- Authors: Jiatong Shi, Yun Tang, Ann Lee, Hirofumi Inaguma, Changhan Wang, Juan
Pino, Shinji Watanabe
- Abstract要約: 直接S2STモデルに対する合成対象音声の変更の効果を解析する。
異なるTSシステムから複数のターゲットを持つS2STシステムを協調的に最適化するマルチタスクフレームワークを提案する。
- 参考スコア(独自算出の注目度): 62.18395387305803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It has been known that direct speech-to-speech translation (S2ST) models
usually suffer from the data scarcity issue because of the limited existing
parallel materials for both source and target speech. Therefore to train a
direct S2ST system, previous works usually utilize text-to-speech (TTS) systems
to generate samples in the target language by augmenting the data from
speech-to-text translation (S2TT). However, there is a limited investigation
into how the synthesized target speech would affect the S2ST models. In this
work, we analyze the effect of changing synthesized target speech for direct
S2ST models. We find that simply combining the target speech from different TTS
systems can potentially improve the S2ST performances. Following that, we also
propose a multi-task framework that jointly optimizes the S2ST system with
multiple targets from different TTS systems. Extensive experiments demonstrate
that our proposed framework achieves consistent improvements (2.8 BLEU) over
the baselines on the Fisher Spanish-English dataset.
- Abstract(参考訳): s2st(direct speech-to-speech translation)モデルは通常、ソースとターゲットの両方のパラレル材料が限られているため、データ不足の問題に苦しんでいることが知られている。
したがって、S2STシステムを直接訓練するために、従来の作業では、音声からテキストへの変換(S2TT)からデータを増やすことで、通常、対象言語でサンプルを生成するためにテキスト音声(TTS)システムを使用していた。
しかし、合成されたターゲット音声がS2STモデルにどう影響するかは限定的な研究がある。
本研究では、直接S2STモデルに対する合成対象音声の変更の効果を解析する。
異なるTSシステムからターゲット音声を合成するだけで、S2STの性能が向上する可能性がある。
次に、異なるTSシステムから複数のターゲットを持つS2STシステムを協調的に最適化するマルチタスクフレームワークを提案する。
大規模な実験により,提案フレームワークはフィッシャー・スペイン語データセットのベースラインよりも一貫した改善(2.8 BLEU)を達成できた。
関連論文リスト
- Can We Achieve High-quality Direct Speech-to-Speech Translation without Parallel Speech Data? [49.42189569058647]
2パス直接音声音声変換(S2ST)モデルは、タスクを音声音声翻訳(S2TT)とテキスト音声翻訳(TTS)に分解する
本稿では,事前学習した任意のS2TTおよびTSモデルを直接S2STモデルにシームレスに統合できるComSpeechという複合S2STモデルを提案する。
また,S2TTとTSデータのみを利用した新しいトレーニング手法ComSpeech-ZSを提案する。
論文 参考訳(メタデータ) (2024-06-11T14:17:12Z) - Joint Pre-Training with Speech and Bilingual Text for Direct Speech to
Speech Translation [94.80029087828888]
直接音声音声翻訳 (S2ST) は, カスケードされたS2STと比較して, 優れた研究課題である。
直接S2STは、ソース言語の音声からターゲット言語の音声へのコーパスが非常に稀であるため、データ不足の問題に悩まされる。
本稿では,音声から音声への直接翻訳タスクのための音声とバイリンガルのテキストデータとを事前学習したSpeech2Sモデルを提案する。
論文 参考訳(メタデータ) (2022-10-31T02:55:51Z) - TranSpeech: Speech-to-Speech Translation With Bilateral Perturbation [61.564874831498145]
TranSpeechは、両側摂動を伴う音声から音声への翻訳モデルである。
我々は,非自己回帰S2ST手法を構築し,繰り返しマスキングを行い,単位選択を予測する。
TranSpeechは推論遅延を大幅に改善し、自動回帰技術よりも最大21.4倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2022-05-25T06:34:14Z) - Enhanced Direct Speech-to-Speech Translation Using Self-supervised
Pre-training and Data Augmentation [76.13334392868208]
直接音声音声変換(S2ST)モデルは、データ不足の問題に悩まされる。
本研究では,この課題に対処するために,ラベルのない音声データとデータ拡張を用いた自己教師付き事前学習について検討する。
論文 参考訳(メタデータ) (2022-04-06T17:59:22Z) - Textless Speech-to-Speech Translation on Real Data [49.134208897722246]
本研究では、ある言語から別の言語への翻訳が可能なテキストなし音声音声翻訳システム(S2ST)を提案する。
マルチ話者ターゲット音声をモデル化し、実世界のS2STデータを用いてシステムを訓練する際の課題に対処する。
論文 参考訳(メタデータ) (2021-12-15T18:56:35Z) - Incremental Speech Synthesis For Speech-To-Speech Translation [23.951060578077445]
本稿では,TSモデルの逐次合成性能の向上に焦点をあてる。
プレフィックスに基づく単純なデータ拡張戦略により、インクリメンタルTS品質を改善してオフラインパフォーマンスにアプローチすることが可能になります。
本稿では,S2STアプリケーションに適したレイテンシメトリクスを提案し,このコンテキストにおける遅延低減手法について検討する。
論文 参考訳(メタデータ) (2021-10-15T17:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。