論文の概要: RawNet: Fast End-to-End Neural Vocoder
- arxiv url: http://arxiv.org/abs/1904.05351v2
- Date: Fri, 10 Mar 2023 03:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 04:41:56.206787
- Title: RawNet: Fast End-to-End Neural Vocoder
- Title(参考訳): rawnet: エンドツーエンドの高速ニューラルネットワークボコーダ
- Authors: Yunchao He, Yujun Wang
- Abstract要約: RawNetは、話者依存および非依存音声合成のための自動エンコーダ構造に基づく、完全なエンドツーエンドのニューラルボコーダである。
入力されたオーディオのより高い表現をキャプチャするコーダネットワークと、サンプルバイサンプル方式でオーディオを復元する自動回帰ボイダネットワークを含む。
- 参考スコア(独自算出の注目度): 4.507860128918788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural network-based vocoders have recently demonstrated the powerful ability
to synthesize high-quality speech. These models usually generate samples by
conditioning on spectral features, such as Mel-spectrogram and fundamental
frequency, which is crucial to speech synthesis. However, the feature
extraction procession tends to depend heavily on human knowledge resulting in a
less expressive description of the origin audio. In this work, we proposed
RawNet, a complete end-to-end neural vocoder following the auto-encoder
structure for speaker-dependent and -independent speech synthesis. It
automatically learns to extract features and recover audio using neural
networks, which include a coder network to capture a higher representation of
the input audio and an autoregressive voder network to restore the audio in a
sample-by-sample manner. The coder and voder are jointly trained directly on
the raw waveform without any human-designed features. The experimental results
show that RawNet achieves a better speech quality using a simplified model
architecture and obtains a faster speech generation speed at the inference
stage.
- Abstract(参考訳): ニューラルネットワークベースのボコーダは、最近、高品質な音声を合成する強力な能力を示した。
これらのモデルは通常、メルスペクトログラムや基本周波数といった音声合成に不可欠なスペクトル特徴を条件付けしてサンプルを生成する。
しかし、特徴抽出行列は人間の知識に大きく依存する傾向があるため、オリジナル音声の表現力の低い記述となる。
本研究では,話者依存および非依存音声合成のためのオートエンコーダ構造に従う,完全エンドツーエンドのニューラルボコーダであるrawnetを提案する。
入力されたオーディオのより高い表現をキャプチャするコーダネットワークと、サンプルバイサンプル方式でオーディオを復元する自動回帰ボイダネットワークを含む。
コーダーとボーダーは、人間が設計した特徴を伴わずに、生の波形で直接訓練される。
実験の結果, rawnetは簡易化モデルを用いた音声品質の向上を実現し, 推定段階での音声生成速度を高速化した。
関連論文リスト
- CoLM-DSR: Leveraging Neural Codec Language Modeling for Multi-Modal Dysarthric Speech Reconstruction [61.067153685104394]
変形性音声再建(DSR)は、変形性音声を正常な音声に変換することを目的としている。
話者の類似度は低く、プロソディの自然度は低い。
本稿では、ニューラルネットワークモデリングを利用して再構成結果を改善するマルチモーダルDSRモデルを提案する。
論文 参考訳(メタデータ) (2024-06-12T15:42:21Z) - Large-scale unsupervised audio pre-training for video-to-speech
synthesis [64.86087257004883]
音声合成は、話者の無声映像から音声信号を再構成する作業である。
本稿では,24kHzで3,500時間以上のオーディオデータをエンコーダ・デコーダモデルでトレーニングすることを提案する。
次に、事前学習したデコーダを用いて、音声合成タスクの音声デコーダを初期化する。
論文 参考訳(メタデータ) (2023-06-27T13:31:33Z) - Disentangled Feature Learning for Real-Time Neural Speech Coding [24.751813940000993]
本稿では,視覚的なエンドツーエンド学習の代わりに,リアルタイムなニューラル音声符号化のための非絡み合った特徴を学習することを提案する。
学習された不整合特徴は、現代の自己教師付き音声表現学習モデルを用いて、任意の音声変換において同等の性能を示す。
論文 参考訳(メタデータ) (2022-11-22T02:50:12Z) - Diffsound: Discrete Diffusion Model for Text-to-sound Generation [78.4128796899781]
本稿では,テキストエンコーダ,ベクトル量子化変分自動符号化(VQ-VAE),デコーダ,ボコーダからなる新しいテキスト音声生成フレームワークを提案する。
フレームワークは、まず、デコーダを使用して、テキストエンコーダから抽出したテキスト特徴をVQ-VAEの助けを借りてメルスペクトルに転送し、次いで、ボコーダを使用して生成されたメルスペクトルを波形に変換する。
論文 参考訳(メタデータ) (2022-07-20T15:41:47Z) - NeuralDPS: Neural Deterministic Plus Stochastic Model with Multiband
Excitation for Noise-Controllable Waveform Generation [67.96138567288197]
本稿では,高い音声品質を保ち,高い合成効率とノイズ制御性を得ることができるニューラルDPSというニューラルボコーダを提案する。
ウェーブネットのボコーダより少なくとも280倍高速な波形を生成する。
また、単一コア上でのWaveGANの合成効率よりも28%高速である。
論文 参考訳(メタデータ) (2022-03-05T08:15:29Z) - DeepA: A Deep Neural Analyzer For Speech And Singing Vocoding [71.73405116189531]
本稿では,従来のボコーダで定義されている音声をエミュレートする入力音声から,F0と音節/音節/音節のエンコーディングを抽出するニューラルボコーダを提案する。
ディープ・ニューラル・アナライザは学習可能であるため、信号の再構成と操作がより正確であり、音声から歌への一般化が期待できる。
論文 参考訳(メタデータ) (2021-10-13T01:39:57Z) - Audio Captioning Transformer [44.68751180694813]
音声キャプションは、音声クリップの自然言語記述を自動的に生成することを目的としている。
ほとんどのキャプションモデルはエンコーダ-デコーダアーキテクチャに従っており、デコーダはエンコーダによって抽出された音声特徴に基づいて単語を予測する。
本稿では,エンコーダデコーダアーキテクチャに基づくフルトランスフォーマネットワークであるAudio Captioning Transformer (ACT)を提案する。
論文 参考訳(メタデータ) (2021-07-21T00:31:50Z) - End-to-End Video-To-Speech Synthesis using Generative Adversarial
Networks [54.43697805589634]
GAN(Generative Adversarial Networks)に基づくエンドツーエンドビデオ音声合成モデルを提案する。
本モデルは,生映像を入力として受信し,音声を生成するエンコーダ・デコーダアーキテクチャで構成されている。
このモデルは,グリッドなどの制約付きデータセットに対して,顕著なリアリズムで音声を再構成できることを示す。
論文 参考訳(メタデータ) (2021-04-27T17:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。