論文の概要: Transfer Learning from Monolingual ASR to Transcription-free
Cross-lingual Voice Conversion
- arxiv url: http://arxiv.org/abs/2009.14668v1
- Date: Wed, 30 Sep 2020 13:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:39:36.636442
- Title: Transfer Learning from Monolingual ASR to Transcription-free
Cross-lingual Voice Conversion
- Title(参考訳): 単言語ASRから転写自由言語間音声変換への変換学習
- Authors: Che-Jui Chang
- Abstract要約: 言語間音声変換は、ソース話者とターゲット話者が異なる言語で話す間、同じ内容のターゲット音声を合成することを目的としたタスクである。
本稿では,モノリン言語ASRから言語間VCへの知識伝達に着目した。
外国語音声の書き起こしや言語固有の知識を必要とせず,言語間VCの対応に成功している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-lingual voice conversion (VC) is a task that aims to synthesize target
voices with the same content while source and target speakers speak in
different languages. Its challenge lies in the fact that the source and target
data are naturally non-parallel, and it is even difficult to bridge the gaps
between languages with no transcriptions provided. In this paper, we focus on
knowledge transfer from monolin-gual ASR to cross-lingual VC, in order to
address the con-tent mismatch problem. To achieve this, we first train a
monolingual acoustic model for the source language, use it to extract phonetic
features for all the speech in the VC dataset, and then train a Seq2Seq
conversion model to pre-dict the mel-spectrograms. We successfully address
cross-lingual VC without any transcription or language-specific knowledge for
foreign speech. We experiment this on Voice Conversion Challenge 2020 datasets
and show that our speaker-dependent conversion model outperforms the zero-shot
baseline, achieving MOS of 3.83 and 3.54 in speech quality and speaker
similarity for cross-lingual conversion. When compared to Cascade ASR-TTS
method, our proposed one significantly reduces the MOS drop be-tween intra- and
cross-lingual conversion.
- Abstract(参考訳): 言語間音声変換(VC)は、ソースとターゲット話者が異なる言語で話しながら、同じ内容のターゲット音声を合成することを目的としたタスクである。
その課題は、ソースとターゲットデータが自然に非並列であり、文字起こしのない言語間のギャップを埋めることさえ困難であるという事実にある。
本稿では,モノリン言語ASRから言語間VCへの知識伝達に着目し,このミスマッチ問題に対処する。
これを実現するために、まずソース言語のための単言語音響モデルをトレーニングし、VCデータセットの全音声の特徴を抽出し、次にSeq2Seq変換モデルをトレーニングし、メルスペクトルを予測します。
外国語音声の書き起こしや言語固有の知識を必要とせず,言語間VCの対応に成功した。
これを音声変換チャレンジ2020データセットで実験し、話者依存変換モデルがゼロショットベースラインを上回り、言語間変換のための音声品質および話者類似度において3.83および3.54のmosを達成していることを示す。
Cascade ASR-TTS法と比較して,提案手法はMOS滴の内・言語間変換を著しく低減する。
関連論文リスト
- MulliVC: Multi-lingual Voice Conversion With Cycle Consistency [75.59590240034261]
MulliVCは、音色のみを変換し、多言語ペアリングデータなしでオリジナルコンテンツとソースコードの韻律を保持する新しい音声変換システムである。
目的と主観の両方の結果から,MulliVCはモノリンガルとクロスリンガルの両方の文脈において,他の手法をはるかに上回っていることが示唆された。
論文 参考訳(メタデータ) (2024-08-08T18:12:51Z) - Cross-lingual Knowledge Distillation via Flow-based Voice Conversion for
Robust Polyglot Text-To-Speech [6.243356997302935]
本稿では、上流音声変換(VC)モデルと下流音声合成(TTS)モデルを含む、言語間音声合成のためのフレームワークを提案する。
最初の2段階では、VCモデルを用いてターゲット話者の発話をターゲット話者の声に変換する。
第3段階では、変換されたデータは、対象言語における記録からの言語的特徴や持続時間と組み合わせられ、単一話者音響モデルの訓練に使用される。
論文 参考訳(メタデータ) (2023-09-15T09:03:14Z) - Speech-to-Speech Translation with Discrete-Unit-Based Style Transfer [53.72998363956454]
個別の自己教師付き表現を用いた音声音声合成(S2ST)は顕著な精度を達成している。
高品質な話者並列データの不足は、翻訳中にスタイル転送を学習する上での課題となる。
我々は、個別の自己教師付き音声表現と音色単位に基づいて、スタイル変換機能を備えたS2STパイプラインを設計する。
論文 参考訳(メタデータ) (2023-09-14T09:52:08Z) - Speak Foreign Languages with Your Own Voice: Cross-Lingual Neural Codec
Language Modeling [92.55131711064935]
本稿では,言語間音声合成のための言語間ニューラルネットワークモデル VALL-E X を提案する。
VALL-E Xは、強い文脈内学習能力を継承し、ゼロショット言語間テキスト音声合成やゼロショット音声音声音声翻訳タスクに応用できる。
未知の話者の声、感情、音響環境を保ちながら、ソース言語の1つの発話をプロンプトとして、ターゲット言語で高品質な音声を生成することができる。
論文 参考訳(メタデータ) (2023-03-07T14:31:55Z) - Cross-lingual Text-To-Speech with Flow-based Voice Conversion for
Improved Pronunciation [11.336431583289382]
本稿では,エンドツーエンドの言語間テキスト合成手法を提案する。
本来の話者の言語によらず、対象言語の発音を維持することを目的としている。
論文 参考訳(メタデータ) (2022-10-31T12:44:53Z) - ASR data augmentation in low-resource settings using cross-lingual
multi-speaker TTS and cross-lingual voice conversion [49.617722668505834]
提案手法は,モデル学習中に1つの話者のみを用いて音声合成と音声変換を行い,ASRシステムの改善を可能にする。
対象言語における1つの実話者のみを用いてデータ拡張法を用いて、有望なASRトレーニング結果を得ることが可能である。
論文 参考訳(メタデータ) (2022-03-29T11:55:30Z) - On Prosody Modeling for ASR+TTS based Voice Conversion [82.65378387724641]
音声変換において、最新の音声変換チャレンジ(VCC)2020における有望な結果を示すアプローチは、まず、ソース音声を基礎となる言語内容に書き起こすために、自動音声認識(ASR)モデルを使用することである。
このようなパラダイムはASR+TTSと呼ばれ、音声の自然性と変換の類似性において重要な役割を果たす韻律のモデル化を見落としている。
本稿では,ターゲットテキスト予測(TTP)と呼ばれる,ターゲット話者に依存した言語表現から直接韻律を予測することを提案する。
論文 参考訳(メタデータ) (2021-07-20T13:30:23Z) - Towards Natural and Controllable Cross-Lingual Voice Conversion Based on
Neural TTS Model and Phonetic Posteriorgram [21.652906261475533]
言語間の音声変換は、音素集合のかなりのミスマッチと異なる言語の音声韻律のために難しい問題である。
我々は、新しい言語間VCフレームワークであるFastSpeech-VCを設計するために、ニューラルテキスト音声(TTS)モデルを構築した。
論文 参考訳(メタデータ) (2021-02-03T10:28:07Z) - How Phonotactics Affect Multilingual and Zero-shot ASR Performance [74.70048598292583]
Transformer encoder-decoderモデルは、トレーニング中に提示された言語のIPA転写において、多言語データをうまく活用することが示されている。
我々は,エンコーダデコーダをAMとLMを分離したハイブリッドASRシステムに置き換える。
交叉音韻律のモデル化による利得は限定的であり,強すぎるモデルがゼロショット転送を損なう可能性があることを示す。
論文 参考訳(メタデータ) (2020-10-22T23:07:24Z) - Latent linguistic embedding for cross-lingual text-to-speech and voice
conversion [44.700803634034486]
言語間音声生成は、話者が話さない言語において、ターゲット話者の声で発話が生成されるシナリオである。
提案手法は, 話者類似度の高い多言語VCを生成するだけでなく, 余分なステップを踏むことなく, TTSをシームレスに利用できることを示す。
論文 参考訳(メタデータ) (2020-10-08T01:25:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。