論文の概要: Few-Shot Cross-Lingual TTS Using Transferable Phoneme Embedding
- arxiv url: http://arxiv.org/abs/2206.15427v1
- Date: Mon, 27 Jun 2022 11:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-03 00:36:43.637561
- Title: Few-Shot Cross-Lingual TTS Using Transferable Phoneme Embedding
- Title(参考訳): トランスファタブル音素埋め込みを用いたFew-Shot Inter-Lingual TTS
- Authors: Wei-Ping Huang, Po-Chun Chen, Sung-Feng Huang, Hung-yi Lee
- Abstract要約: 本稿では,言語間テキスト-音声間問題に対処するための移動可能な音素埋め込みフレームワークについて,数ショット設定で検討する。
本稿では,音素ベースのTSモデルと,異なる言語からの音素を学習潜在空間に投影するコードブックモジュールからなるフレームワークを提案する。
- 参考スコア(独自算出の注目度): 55.989376102986654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies a transferable phoneme embedding framework that aims to
deal with the cross-lingual text-to-speech (TTS) problem under the few-shot
setting. Transfer learning is a common approach when it comes to few-shot
learning since training from scratch on few-shot training data is bound to
overfit. Still, we find that the naive transfer learning approach fails to
adapt to unseen languages under extremely few-shot settings, where less than 8
minutes of data is provided. We deal with the problem by proposing a framework
that consists of a phoneme-based TTS model and a codebook module to project
phonemes from different languages into a learned latent space. Furthermore, by
utilizing phoneme-level averaged self-supervised learned features, we
effectively improve the quality of synthesized speeches. Experiments show that
using 4 utterances, which is about 30 seconds of data, is enough to synthesize
intelligible speech when adapting to an unseen language using our framework.
- Abstract(参考訳): 本稿では,tts(cross-lingual text-to-speech)問題に対処することを目的とした,トランスファー可能な音素埋め込みフレームワークについて検討する。
転校学習は、単発トレーニングデータのスクラッチからのトレーニングが過剰に合致するので、単発学習に関して一般的なアプローチである。
それでも、ナイーブな転送学習アプローチは、8分未満のデータを提供する極端に少数の設定では、見当たらない言語に適応できないことが分かりました。
我々は,音素ベースのTSモデルと,異なる言語からの音素を学習潜在空間に投影するコードブックモジュールからなるフレームワークを提案することで,この問題に対処する。
さらに,音素レベルの平均教師付き学習特徴を利用して,合成音声の品質を効果的に向上する。
実験により、約30秒のデータである4つの発話を使用することで、我々のフレームワークを使って見えない言語に適応する際には、知的な音声を合成するのに十分であることがわかった。
関連論文リスト
- An Initial Investigation of Language Adaptation for TTS Systems under Low-resource Scenarios [76.11409260727459]
本稿では,最近のSSLベースの多言語TSシステムであるZMM-TTSの言語適応性について検討する。
本研究では,事前学習言語と対象言語との音声学的な類似性が,対象言語の適応性能に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-06-13T08:16:52Z) - TIPAA-SSL: Text Independent Phone-to-Audio Alignment based on Self-Supervised Learning and Knowledge Transfer [3.9981390090442694]
本稿では,音素認識,表現学習,知識伝達に基づくテキスト独立型音声アライメントのための新しいアプローチを提案する。
我々は、TIMITデータセットとSCRIBEデータセットの合成ネイティブデータを用いて、アメリカ英語とイギリス英語のモデルを評価する。
提案手法は,統計的指標における最先端(シャルシウ)よりも優れ,言語学習や音声処理システムに応用されている。
論文 参考訳(メタデータ) (2024-05-03T14:25:21Z) - Learning to Speak from Text: Zero-Shot Multilingual Text-to-Speech with
Unsupervised Text Pretraining [65.30528567491984]
本稿では,対象言語に対するテキストのみのデータを用いたゼロショット多言語TS法を提案する。
テキストのみのデータを使用することで、低リソース言語向けのTSシステムの開発が可能になる。
評価の結果,文字誤り率が12%未満のゼロショットTSは,見当たらない言語では高い知能性を示した。
論文 参考訳(メタデータ) (2023-01-30T00:53:50Z) - ERNIE-SAT: Speech and Text Joint Pretraining for Cross-Lingual
Multi-Speaker Text-to-Speech [58.93395189153713]
言語間複数話者音声合成タスクの事前学習法を拡張した。
本稿では,スペクトルと音素をランダムにマスキングする,音声・テキスト共同事前学習フレームワークを提案する。
本モデルは,話者埋め込み型マルチスピーカTS法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-07T13:35:16Z) - Low-Resource Multilingual and Zero-Shot Multispeaker TTS [25.707717591185386]
5分間のトレーニングデータを用いて,新しい言語を学習することが可能であることを示す。
提案手法を,対象話者との親密性,自然性,類似性の観点から示す。
論文 参考訳(メタデータ) (2022-10-21T20:03:37Z) - Transfer Learning Framework for Low-Resource Text-to-Speech using a
Large-Scale Unlabeled Speech Corpus [10.158584616360669]
テキスト音声(TTS)モデルのトレーニングには,大規模テキストラベル付き音声コーパスが必要となる。
本稿では、事前学習に大量のラベルなし音声データセットを利用するTSの転送学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T11:26:56Z) - Textless Speech-to-Speech Translation on Real Data [49.134208897722246]
本研究では、ある言語から別の言語への翻訳が可能なテキストなし音声音声翻訳システム(S2ST)を提案する。
マルチ話者ターゲット音声をモデル化し、実世界のS2STデータを用いてシステムを訓練する際の課題に対処する。
論文 参考訳(メタデータ) (2021-12-15T18:56:35Z) - Semi-supervised transfer learning for language expansion of end-to-end
speech recognition models to low-resource languages [19.44975351652865]
低音源言語における音声認識精度向上のための3段階学習手法を提案する。
我々は、翻訳学習、TS拡張、SSLを用いて、よく訓練された英語モデル、ラベルなしテキストコーパス、ラベルなしオーディオコーパスを利用する。
第1パスにおけるモノトニック・チャンクワイド・アテンション(MoA)を用いた2パス音声認識システムでは,ベースラインに対するWERの42%削減を実現している。
論文 参考訳(メタデータ) (2021-11-19T05:09:16Z) - Towards Zero-shot Learning for Automatic Phonemic Transcription [82.9910512414173]
より難しい問題は、トレーニングデータをゼロにする言語のための音素変換器を構築することだ。
我々のモデルは、トレーニングデータなしで、ターゲット言語で見知らぬ音素を認識できる。
標準的な多言語モデルよりも平均して7.7%の音素誤り率を実現している。
論文 参考訳(メタデータ) (2020-02-26T20:38:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。