論文の概要: Evaluating and reducing the distance between synthetic and real speech
distributions
- arxiv url: http://arxiv.org/abs/2211.16049v2
- Date: Thu, 25 May 2023 08:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 23:26:46.713304
- Title: Evaluating and reducing the distance between synthetic and real speech
distributions
- Title(参考訳): 合成音声と実音声間の距離の評価と低減
- Authors: Christoph Minixhofer, Ond\v{r}ej Klejch, Peter Bell
- Abstract要約: 現代のテキスト音声合成システムは、自然な音声を生成することができるが、自然な音声データに見られる完全な多様性を再現することはできない。
発話レベルの統計量を用いて,実音声と合成音声の距離を定量化する。
最適システムは分布距離を10%削減する。
- 参考スコア(独自算出の注目度): 8.908425534666353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While modern Text-to-Speech (TTS) systems can produce natural-sounding
speech, they remain unable to reproduce the full diversity found in natural
speech data. We consider the distribution of all possible real speech samples
that could be generated by these speakers alongside the distribution of all
synthetic samples that could be generated for the same set of speakers, using a
particular TTS system. We set out to quantify the distance between real and
synthetic speech via a range of utterance-level statistics related to
properties of the speaker, speech prosody and acoustic environment. Differences
in the distribution of these statistics are evaluated using the Wasserstein
distance. We reduce these distances by providing ground-truth values at
generation time, and quantify the improvements to the overall distribution
distance, approximated using an automatic speech recognition system. Our best
system achieves a 10\% reduction in distribution distance.
- Abstract(参考訳): 現代のtts(text-to-speech)システムは自然音声を生成することができるが、自然音声データに見られる完全な多様性を再現することはできない。
我々は,これらの話者が生成できるすべての実音声サンプルの分布と,同じ話者群に対して生成できるすべての合成サンプルの分布を,特定のTSシステムを用いて検討した。
本研究では, 話者特性, 音声韻律, 音響環境に関する発話レベルの統計値を用いて, 実音声と合成音声の距離を定量化する。
これらの統計の分布の違いは、ワッサーシュタイン距離を用いて評価される。
これらの距離を、生成時の接地値を提供することで削減し、自動音声認識システムを用いて近似した分布距離全体の改善を定量化する。
最善のシステムは分布距離を10%削減できる。
関連論文リスト
- TTSDS -- Text-to-Speech Distribution Score [9.380879437204277]
最近発表されたText-to-Speech (TTS) システムは、実際の音声に近い音声を生成する。
本稿では,韻律,話者識別,知性といった複数の要因を組み合わせた合成音声の質を評価することを提案する。
2008年から2024年にかけて開発された35のTTSシステムをベンチマークし, 評価値の非重み付き平均値として計算した結果が人体評価と強く相関していることを示した。
論文 参考訳(メタデータ) (2024-07-17T16:30:27Z) - Zero-shot text-to-speech synthesis conditioned using self-supervised
speech representation model [13.572330725278066]
提案手法の新たなポイントは、大量のデータで訓練された音声表現から組込みベクトルを得るためにSSLモデルを直接利用することである。
この不整合埋め込みにより、未知話者の再生性能が向上し、異なる音声によるリズム伝達が実現される。
論文 参考訳(メタデータ) (2023-04-24T10:15:58Z) - NaturalSpeech 2: Latent Diffusion Models are Natural and Zero-Shot
Speech and Singing Synthesizers [90.83782600932567]
残差ベクトル化器を備えたニューラルオーディオ予測器を応用して量子化潜在ベクトルを得るTSシステムであるNaturalSpeech 2を開発した。
本研究では,NaturalSpeech 2を44K時間の音声・歌唱データを持つ大規模データセットに拡張し,未知話者の音声品質を評価する。
NaturalSpeech 2は、0ショット設定で、韻律/音節の類似性、合成、音声品質の点で、従来のTSシステムよりはるかに優れている。
論文 参考訳(メタデータ) (2023-04-18T16:31:59Z) - DSVAE: Interpretable Disentangled Representation for Synthetic Speech
Detection [25.451749986565375]
合成音声を検出するための音声信号の解釈可能な表現を生成するために,Dis Spectrogram Variational Autoentangle (DSVAE)を提案する。
実験の結果, 未知音声合成者11名中6名中10名中98%が, 高い精度 (>98%) を示した。
論文 参考訳(メタデータ) (2023-04-06T18:37:26Z) - A Vector Quantized Approach for Text to Speech Synthesis on Real-World
Spontaneous Speech [94.64927912924087]
我々は、YouTubeやポッドキャストから現実の音声を使ってTSシステムを訓練する。
最近のText-to-Speechアーキテクチャは、複数のコード生成とモノトニックアライメントのために設計されている。
近年のテキスト・トゥ・スペーチ・アーキテクチャは,いくつかの客観的・主観的尺度において,既存のTSシステムより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-08T17:34:32Z) - A unified one-shot prosody and speaker conversion system with
self-supervised discrete speech units [94.64927912924087]
既存のシステムは韻律と言語内容の相関を無視し、変換された音声の自然度を低下させる。
自己教師付き離散音声単位を言語表現として活用するカスケードモジュラーシステムを提案する。
実験により,本システムは,自然性,知性,話者伝達性,韻律伝達性において,従来の手法よりも優れていたことがわかった。
論文 参考訳(メタデータ) (2022-11-12T00:54:09Z) - Cross-Utterance Conditioned VAE for Non-Autoregressive Text-to-Speech [27.84124625934247]
各音素に対する潜在韻律特徴の後方確率分布を推定するために,発話条件付きVAEを提案する。
CUC-VAEは、発話情報に基づいて、発話固有の事前分布からサンプリングすることができる。
LJ-Speech と LibriTTS のデータによる実験結果から,提案した CUC-VAE TTS システムは自然性や韻律の多様性を向上することが示された。
論文 参考訳(メタデータ) (2022-05-09T08:39:53Z) - ASR data augmentation in low-resource settings using cross-lingual
multi-speaker TTS and cross-lingual voice conversion [49.617722668505834]
提案手法は,モデル学習中に1つの話者のみを用いて音声合成と音声変換を行い,ASRシステムの改善を可能にする。
対象言語における1つの実話者のみを用いてデータ拡張法を用いて、有望なASRトレーニング結果を得ることが可能である。
論文 参考訳(メタデータ) (2022-03-29T11:55:30Z) - Speech Resynthesis from Discrete Disentangled Self-Supervised
Representations [49.48053138928408]
音声合成作業に自己教師付き離散表現を用いることを提案する。
音声コンテンツ、韻律情報、話者識別のための低ビット表現を抽出する。
得られた表現を使用することで、ベースラインメソッドよりも優れた音声品質を提供しながら、毎秒365ビットのレートが得られる。
論文 参考訳(メタデータ) (2021-04-01T09:20:33Z) - Semi-supervised Learning for Multi-speaker Text-to-speech Synthesis
Using Discrete Speech Representation [125.59372403631006]
マルチ話者テキスト音声(TTS)のための半教師付き学習手法を提案する。
マルチスピーカTTSモデルは、離散音声表現を備えたエンコーダデコーダフレームワークを用いて、未転写音声から学習することができる。
提案した半教師あり学習手法は,音声データの一部がうるさい場合にも有効であることがわかった。
論文 参考訳(メタデータ) (2020-05-16T15:47:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。