論文の概要: Mix and Match: An Empirical Study on Training Corpus Composition for
Polyglot Text-To-Speech (TTS)
- arxiv url: http://arxiv.org/abs/2207.01507v1
- Date: Mon, 4 Jul 2022 15:23:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 13:26:02.023627
- Title: Mix and Match: An Empirical Study on Training Corpus Composition for
Polyglot Text-To-Speech (TTS)
- Title(参考訳): Mix and Match:polyglot Text-to-Speech (TTS)のためのトレーニングコーパス構成に関する実証的研究
- Authors: Ziyao Zhang, Alessio Falai, Ariadna Sanchez, Orazio Angelini, Kayoko
Yanagisawa
- Abstract要約: モノリンガルコーパスのみを用いたマルチリンガルニューラルテキスト音声合成(NTTS)モデルのトレーニングが,音声クローンベースのポリグロットNTTSシステム構築の一般的な方法として登場した。
学習コーパスの構成が多言語音声合成の質にどのように影響するかを理解することが不可欠である。
- 参考スコア(独自算出の注目度): 3.57486761615991
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training multilingual Neural Text-To-Speech (NTTS) models using only
monolingual corpora has emerged as a popular way for building voice cloning
based Polyglot NTTS systems. In order to train these models, it is essential to
understand how the composition of the training corpora affects the quality of
multilingual speech synthesis. In this context, it is common to hear questions
such as "Would including more Spanish data help my Italian synthesis, given the
closeness of both languages?". Unfortunately, we found existing literature on
the topic lacking in completeness in this regard. In the present work, we
conduct an extensive ablation study aimed at understanding how various factors
of the training corpora, such as language family affiliation, gender
composition, and the number of speakers, contribute to the quality of Polyglot
synthesis. Our findings include the observation that female speaker data are
preferred in most scenarios, and that it is not always beneficial to have more
speakers from the target language variant in the training corpus. The findings
herein are informative for the process of data procurement and corpora
building.
- Abstract(参考訳): モノリンガルコーパスのみを用いたマルチリンガルニューラルテキスト音声合成(NTTS)モデルのトレーニングが,音声クローンベースのポリグロットNTTSシステム構築の一般的な方法として登場した。
これらのモデルの学習には,訓練コーパスの構成が多言語音声合成の質に与える影響を理解することが不可欠である。
この文脈では、「両方の言語の親密さを考えると、もっとスペイン語のデータを含めれば、私のイタリア語の合成に役立つ」というような質問を聞くのが一般的である。
残念ながら、この点に関して完全性に欠ける話題について、既存の文献を見出した。
本研究は,多言語合成の質に,言語家族関係,性構成,話者数といったコーパスの各種要因がどのように寄与するかを理解することを目的とした,広範なアブレーション研究を行う。
その結果,ほとんどのシナリオでは女性話者が好まれる傾向があり,トレーニングコーパスにおいて,対象言語からより多くの話者を持つことは必ずしも有益ではないことがわかった。
ここでの調査結果は、データ調達とコーパスビルディングのプロセスに役立ちます。
関連論文リスト
- A multilingual training strategy for low resource Text to Speech [5.109810774427171]
ソーシャルメディアからのデータを、小さなTSデータセット構築に利用することができるか、また、言語間移動学習がこの種のデータに有効かどうかを検討する。
そこで本稿では,対象とする低リソース言語に対するTSモデルをトレーニングするために,外国語からのデータをどのように選択し,プールするかを検討する。
以上の結果から,多言語事前学習は単言語事前学習よりも,生成した音声の明瞭さと自然性を高めることが示唆された。
論文 参考訳(メタデータ) (2024-09-02T12:53:01Z) - An Initial Investigation of Language Adaptation for TTS Systems under Low-resource Scenarios [76.11409260727459]
本稿では,最近のSSLベースの多言語TSシステムであるZMM-TTSの言語適応性について検討する。
本研究では,事前学習言語と対象言語との音声学的な類似性が,対象言語の適応性能に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-06-13T08:16:52Z) - Textless Unit-to-Unit training for Many-to-Many Multilingual Speech-to-Speech Translation [65.13824257448564]
本稿では,多言語多言語音声音声合成のためのテキストレス学習手法を提案する。
音声単位を擬似テキストとして扱うことにより、音声の言語内容に焦点を合わせることができる。
提案するUTUTモデルは,音声音声合成(S2ST)だけでなく,多言語音声合成(T2S)やテキスト音声合成(T2ST)にも有効であることを示す。
論文 参考訳(メタデータ) (2023-08-03T15:47:04Z) - ComSL: A Composite Speech-Language Model for End-to-End Speech-to-Text
Translation [79.66359274050885]
公的な事前訓練された音声のみのモデルと言語のみのモデルからなる複合アーキテクチャ上に構築された音声言語モデルであるComSLを提案する。
提案手法は,エンドツーエンドの音声-テキスト翻訳タスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:42:15Z) - MParrotTTS: Multilingual Multi-speaker Text to Speech Synthesis in Low
Resource Setting [16.37243395952266]
MParrotTTSは、TTS合成モデルである。
最小限の教師付きデータを持つ新しい言語に適応し、自己教師付きバックボーンのトレーニング中に見えない言語に一般化する。
音声の自然度と話者類似度を並列・言語間合成における6言語について検討した。
論文 参考訳(メタデータ) (2023-05-19T13:43:36Z) - Learning Cross-lingual Visual Speech Representations [108.68531445641769]
言語横断的な自己監督型視覚表現学習は、ここ数年、研究トピックとして成長している。
我々は最近提案したRAVEn(Raw Audio-Visual Speechs)フレームワークを用いて,未ラベルデータを用いた音声-視覚モデルの事前学習を行う。
1)データ量が多いマルチ言語モデルはモノリンガルモデルよりも優れているが、データの量を維持すると、モノリンガルモデルの性能が向上する傾向にある。
論文 参考訳(メタデータ) (2023-03-14T17:05:08Z) - Multilingual Multiaccented Multispeaker TTS with RADTTS [21.234787964238645]
RADTTSに基づく多言語・多言語・多話者音声合成モデルを提案する。
7つのアクセントからなるオープンソースデータセットにおいて、任意の話者に対して合成アクセントを制御する能力を示す。
論文 参考訳(メタデータ) (2023-01-24T22:39:04Z) - ERNIE-SAT: Speech and Text Joint Pretraining for Cross-Lingual
Multi-Speaker Text-to-Speech [58.93395189153713]
言語間複数話者音声合成タスクの事前学習法を拡張した。
本稿では,スペクトルと音素をランダムにマスキングする,音声・テキスト共同事前学習フレームワークを提案する。
本モデルは,話者埋め込み型マルチスピーカTS法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-07T13:35:16Z) - Cross-lingual Low Resource Speaker Adaptation Using Phonological
Features [2.8080708404213373]
我々は、異なる言語に共通する音韻的特徴のセットに基づいて、言語に依存しないマルチスピーカモデルを訓練する。
対象話者データの32と8の発声で、対応する文献に匹敵する高い話者類似度スコアと自然性を得る。
論文 参考訳(メタデータ) (2021-11-17T12:33:42Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - Cross-lingual Multispeaker Text-to-Speech under Limited-Data Scenario [10.779568857641928]
本稿では,多言語話者音声合成を実現するために,Tacotron2の拡張を提案する。
我々は、単言語話者のための英語とマンダリンの間で、コードスイッチングを含む言語間合成を実現する。
論文 参考訳(メタデータ) (2020-05-21T03:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。