論文の概要: Multilingual Byte2Speech Text-To-Speech Models Are Few-shot Spoken
Language Learners
- arxiv url: http://arxiv.org/abs/2103.03541v1
- Date: Fri, 5 Mar 2021 08:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:59:05.307138
- Title: Multilingual Byte2Speech Text-To-Speech Models Are Few-shot Spoken
Language Learners
- Title(参考訳): 多言語のByte2Speech Text-To-Speechモデル
- Authors: Mutian He, Jingzhou Yang, Lei He
- Abstract要約: 本稿では、バイト入力をスペクトログラムにマッピングし、任意の入力スクリプトを可能にする多言語用エンドツーエンドテキスト合成フレームワークを提案する。
このフレームワークは、極端に低リソースのシナリオ下で、様々な新しい言語に適応する能力を示す。
多言語モデルのメカニズムをよりよく理解するために,言語固有のサブネットワークを抽出する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 11.190877290770047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a multilingual end-to-end Text-To-Speech framework that maps byte
inputs to spectrograms, thus allowing arbitrary input scripts. Besides strong
results on 40+ languages, the framework demonstrates capabilities to adapt to
various new languages under extreme low-resource and even few-shot scenarios of
merely 40s transcribed recording without the need of lexicon, extra corpus,
auxiliary models, or particular linguistic expertise, while retains
satisfactory intelligibility and naturalness matching rich-resource models.
Exhaustive comparative studies are performed to reveal the potential of the
framework for low-resource application and the impact of various factors
contributory to adaptation. Furthermore, we propose a novel method to extract
language-specific sub-networks for a better understanding of the mechanism of
multilingual models.
- Abstract(参考訳): 本稿では、バイト入力をスペクトログラムにマッピングし、任意の入力スクリプトを可能にする多言語用エンドツーエンドテキスト合成フレームワークを提案する。
40以上の言語での強力な結果に加えて、このフレームワークは、レキシコン、余分なコーパス、補助モデル、あるいは特定の言語的専門知識を必要とせずに、極端に低リソースでほんの40秒の録音で、様々な新しい言語に適応できる能力を示し、リッチリソースモデルに適合する十分な知性と自然性を維持している。
低リソースアプリケーションのためのフレームワークの可能性と適応に寄与するさまざまな要因の影響を明らかにするために、排他比較研究が行われます。
さらに,多言語モデルのメカニズムをよりよく理解するために,言語固有のサブネットワークを抽出する手法を提案する。
関連論文リスト
- Zero-shot Sentiment Analysis in Low-Resource Languages Using a
Multilingual Sentiment Lexicon [78.12363425794214]
私たちは、34の言語にまたがるゼロショットの感情分析タスクに重点を置いています。
文レベルの感情データを使用しない多言語語彙を用いた事前学習は、英語の感情データセットに微調整されたモデルと比較して、ゼロショット性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-02-03T10:41:05Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Tokenization Impacts Multilingual Language Modeling: Assessing
Vocabulary Allocation and Overlap Across Languages [3.716965622352967]
サブワードトークン化器で観測される語彙表現と語彙重複の質を評価するための新しい基準を提案する。
以上の結果から,言語間の語彙の重複は,特定の下流課題に支障を来す可能性があることが示唆された。
論文 参考訳(メタデータ) (2023-05-26T18:06:49Z) - Cross-lingual Transfer for Speech Processing using Acoustic Language
Similarity [81.51206991542242]
言語間の移動は、このデジタル分割を橋渡しする魅力的な方法を提供する。
現在の言語間アルゴリズムは、テキストベースのタスクや音声関連タスクを低リソース言語で実現している。
本稿では,数百の言語をまたがる音響的言語間移動対を効率的に同定する言語類似性手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T01:55:17Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。