論文の概要: Diff-TTS: A Denoising Diffusion Model for Text-to-Speech
- arxiv url: http://arxiv.org/abs/2104.01409v1
- Date: Sat, 3 Apr 2021 13:53:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 12:34:23.664865
- Title: Diff-TTS: A Denoising Diffusion Model for Text-to-Speech
- Title(参考訳): Diff-TTS:テキストから音声への拡散モデル
- Authors: Myeonghun Jeong, Hyeongju Kim, Sung Jun Cheon, Byoung Jin Choi, and
Nam Soo Kim
- Abstract要約: 自然で効率的な音声合成を実現する新しい非自己回帰型TTSモデルであるDiff-TTSを提案する。
Diff-TTSは、拡散時間ステップを通じてノイズ信号をメル・スペクトログラムに変換するデノイジング拡散フレームワークを利用しています。
Diff-TTSが1つのNVIDIA 2080Ti GPUでリアルタイムよりも28倍高速に生成されることを検証する。
- 参考スコア(独自算出の注目度): 14.231478930274058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although neural text-to-speech (TTS) models have attracted a lot of attention
and succeeded in generating human-like speech, there is still room for
improvements to its naturalness and architectural efficiency. In this work, we
propose a novel non-autoregressive TTS model, namely Diff-TTS, which achieves
highly natural and efficient speech synthesis. Given the text, Diff-TTS
exploits a denoising diffusion framework to transform the noise signal into a
mel-spectrogram via diffusion time steps. In order to learn the mel-spectrogram
distribution conditioned on the text, we present a likelihood-based
optimization method for TTS. Furthermore, to boost up the inference speed, we
leverage the accelerated sampling method that allows Diff-TTS to generate raw
waveforms much faster without significantly degrading perceptual quality.
Through experiments, we verified that Diff-TTS generates 28 times faster than
the real-time with a single NVIDIA 2080Ti GPU.
- Abstract(参考訳): ニューラルテキスト音声(TTS)モデルは、多くの注目を集め、人間のような音声を生成することに成功したが、その自然性とアーキテクチャ効率を改善する余地はまだ残っている。
本研究では,高自然かつ効率的な音声合成を実現する非自己回帰型TSモデルDiff-TTSを提案する。
テキストからDiff-TTSは、拡散時間ステップを介してノイズ信号をメルスペクトルに変換するために、ノイズ拡散フレームワークを利用する。
テキスト上で条件付きメル-スペクトログラム分布を学習するために,TSの確率に基づく最適化手法を提案する。
さらに, 推定速度を高めるために, diff-ttsが知覚品質を著しく低下させることなく, 生波形を高速に生成できる高速化サンプリング法を応用した。
実験により、Diff-TTSはNVIDIA 2080Ti GPUでリアルタイムよりも28倍高速に生成されることを確認した。
関連論文リスト
- SimpleSpeech 2: Towards Simple and Efficient Text-to-Speech with Flow-based Scalar Latent Transformer Diffusion Models [64.40250409933752]
我々は、SimpleSpeech 2.0と呼ばれるシンプルで効率的な非自己回帰(NAR)TSフレームワークを実装することで、過去の出版物の上に構築した。
SimpleSpeech 2は、自己回帰(AR)法と非自己回帰(NAR)法の両方の長所を効果的に組み合わせている。
我々は,従来の作業と他の大規模TSモデル(SOTA)と比較して,生成性能と生成速度が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-08-25T17:07:39Z) - Schrodinger Bridges Beat Diffusion Models on Text-to-Speech Synthesis [35.16243386407448]
Bridge-TTSは、確立された拡散に基づくTS法において、ノイズの多いガウスをクリーンで決定論的に置き換える新しいTSシステムである。
具体的には、テキスト入力から得られた潜伏表現を前もって利用し、それと地上トルス・メル・スペクトログラムの間に完全にトラクタブルなシュロディンガーブリッジを構築する。
論文 参考訳(メタデータ) (2023-12-06T13:31:55Z) - High-Fidelity Speech Synthesis with Minimal Supervision: All Using
Diffusion Models [56.00939852727501]
最小教師付き音声合成は、2種類の離散音声表現を組み合わせることでTSを分離する。
非自己回帰フレームワークは、制御可能性を高め、持続拡散モデルは、多様化された韻律表現を可能にする。
論文 参考訳(メタデータ) (2023-09-27T09:27:03Z) - Boosting Fast and High-Quality Speech Synthesis with Linear Diffusion [85.54515118077825]
本稿では, 常微分方程式に基づく線形拡散モデル(LinDiff)を提案する。
計算複雑性を低減するため、LinDiffでは、入力信号を小さなパッチに分割するパッチベースの処理アプローチを採用している。
我々のモデルは、より高速な合成速度で自己回帰モデルに匹敵する品質の音声を合成することができる。
論文 参考訳(メタデータ) (2023-06-09T07:02:43Z) - ResGrad: Residual Denoising Diffusion Probabilistic Models for Text to
Speech [37.29193613404699]
DDPMは高忠実度サンプルを生成する能力が強いため、TTS合成において出現している。
従来の研究では、推論ステップの数を最小化しながら、サンプル品質のコストを犠牲にすることで、推論速度の高速化が検討されてきた。
本稿では,既存のTSモデルの出力スペクトルを改良する軽量拡散モデルResGradを提案する。
論文 参考訳(メタデータ) (2022-12-30T02:31:35Z) - ProDiff: Progressive Fast Diffusion Model For High-Quality
Text-to-Speech [63.780196620966905]
本稿では,高品質テキスト合成のためのプログレッシブ高速拡散モデルであるProDiffを提案する。
ProDiffはクリーンデータを直接予測することでデノナイジングモデルをパラメータ化し、サンプリングを高速化する際の品質劣化を回避する。
評価の結果,高忠実度メル-スペクトログラムの合成にProDiffは2回しか要しないことがわかった。
ProDiffは1つのNVIDIA 2080Ti GPU上で、サンプリング速度をリアルタイムより24倍高速にする。
論文 参考訳(メタデータ) (2022-07-13T17:45:43Z) - FastDiff: A Fast Conditional Diffusion Model for High-Quality Speech
Synthesis [90.3069686272524]
本稿では,高品質音声合成のための高速条件拡散モデルであるFastDiffを提案する。
FastDiffは、長期の依存関係を効率的にモデル化するために、さまざまな受容的フィールドパターンの時間認識可能な位置可変の畳み込みを使用する。
我々は、FastDiffに基づいて、高忠実度音声波形を生成するエンドツーエンドのテキスト音声合成器FastDiff-TTSを設計する。
論文 参考訳(メタデータ) (2022-04-21T07:49:09Z) - DiffGAN-TTS: High-Fidelity and Efficient Text-to-Speech with Denoising
Diffusion GANs [39.388599580262614]
DiffGAN-TTS(DiffGAN-TTS, DDPM-based text-to-speech)モデルを導入し, 高忠実度音声合成を実現する。
実験の結果,DiffGAN-TTSは1段階のみの高合成性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-01-28T07:41:10Z) - A Study on Speech Enhancement Based on Diffusion Probabilistic Model [63.38586161802788]
雑音信号からクリーンな音声信号を復元することを目的とした拡散確率モデルに基づく音声強調モデル(DiffuSE)を提案する。
実験結果から、DiffuSEは、標準化されたVoice Bankコーパスタスクにおいて、関連する音声生成モデルに匹敵する性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-07-25T19:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。