論文の概要: A Deep Learning Based Analysis-Synthesis Framework For Unison Singing
- arxiv url: http://arxiv.org/abs/2009.09875v1
- Date: Mon, 21 Sep 2020 13:48:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 05:44:43.664311
- Title: A Deep Learning Based Analysis-Synthesis Framework For Unison Singing
- Title(参考訳): 統一歌唱のための深層学習に基づく分析合成フレームワーク
- Authors: Pritish Chandna, Helena Cuesta and Emilia G\'omez
- Abstract要約: ユニソンの歌は、同じメロディと歌詞を歌う歌手のアンサンブルに与えられる名前である。
一斉混合音の録音において,各歌手の基本周波数分布(F0)を分析した。
本稿では,一斉混合を代表とするカペラ入力と単一音声プロトタイプから一斉合成を行うシステムを提案する。
- 参考スコア(独自算出の注目度): 2.8139907342344364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unison singing is the name given to an ensemble of singers simultaneously
singing the same melody and lyrics. While each individual singer in a unison
sings the same principle melody, there are slight timing and pitch deviations
between the singers, which, along with the ensemble of timbres, give the
listener a perceived sense of "unison". In this paper, we present a study of
unison singing in the context of choirs; utilising some recently proposed
deep-learning based methodologies, we analyse the fundamental frequency (F0)
distribution of the individual singers in recordings of unison mixtures. Based
on the analysis, we propose a system for synthesising a unison signal from an a
cappella input and a single voice prototype representative of a unison mixture.
We use subjective listening tests to evaluate perceptual factors of our
proposed system for synthesis, including quality, adherence to the melody as
well the degree of perceived unison.
- Abstract(参考訳): ユニソンの歌は、同じメロディと歌詞を同時に歌う歌手のアンサンブルに与えられる名前である。
統一された個々の歌手が同じ原則のメロディを歌う一方で、歌手の間にはわずかなタイミングとピッチのずれがあり、音色のアンサンブルとともにリスナーに「統一」の感覚を与える。
本稿では,最近提案されたディープラーニングに基づく手法を用いて,合唱団の文脈におけるユニゾン歌唱の研究を行い,その録音における個々の歌手の基本周波数(f0)分布を分析した。
そこで,本研究では,アカペラ入力からユニゾン信号を合成するシステムと,ユニゾン混合を代表する単一音声プロトタイプを提案する。
主観的リスニングテストを用いて,提案する合成システムの知覚的要因,品質,メロディへの適合度,知覚的ユニゾンの程度を評価した。
関連論文リスト
- Text-to-Song: Towards Controllable Music Generation Incorporating Vocals and Accompaniment [56.019288564115136]
ボーカルと伴奏の両方を組み込んだテキスト・ツー・サング・シンセサイザーという新しいタスクを提案する。
我々は,歌唱音声合成 (SVS) とV2A合成 (V2A) を組み合わせた2段階音声合成法であるメロディストを開発した。
評価結果は,メロディストが同等の品質とスタイルの整合性で楽曲を合成できることを実証した。
論文 参考訳(メタデータ) (2024-04-14T18:00:05Z) - Singer Identity Representation Learning using Self-Supervised Techniques [0.0]
歌唱関連タスクに適した表現を抽出するシンガーアイデンティティエンコーダを訓練するためのフレームワークを提案する。
我々は,孤立した音声トラックの集合体上で,異なる自己教師付き学習手法を探索する。
歌手の類似度と識別タスクにおける表現の質を評価する。
論文 参考訳(メタデータ) (2024-01-10T10:41:38Z) - StyleSinger: Style Transfer for Out-of-Domain Singing Voice Synthesis [63.18764165357298]
ドメイン外歌唱音声合成(SVS)のためのスタイル転送は、目に見えないスタイルで高品質な歌唱音声を生成することに焦点を当てている。
StyleSingerは、ドメイン外参照音声サンプルのゼロショットスタイル転送のための最初の歌声合成モデルである。
ゼロショット・スタイル・トランスファーにおける評価は、StyleSingerが基準歌唱音声サンプルの音質と類似性の両方でベースライン・モデルより優れていることを不確実に証明している。
論文 参考訳(メタデータ) (2023-12-17T15:26:16Z) - Enhancing the vocal range of single-speaker singing voice synthesis with
melody-unsupervised pre-training [82.94349771571642]
本研究では, メロディ非教師型マルチスピーカ事前学習法を提案し, シングルスピーカの発声域を拡大する。
合成音声のリズム自然性を改善するために、識別可能な持続時間調整器を導入するのは、これが初めてである。
実験により,提案したSVSシステムは,音質と自然性の両方において,ベースラインよりも優れていることを確認した。
論文 参考訳(メタデータ) (2023-09-01T06:40:41Z) - A Melody-Unsupervision Model for Singing Voice Synthesis [9.137554315375919]
トレーニング時間内に時間的アライメントを伴わない音声・歌詞ペアのみを必要とするメロディ・アンスーパービジョンモデルを提案する。
提案手法は音声やテキストのラベルで訓練できるが,推測時間で歌唱音声を生成できることを示す。
論文 参考訳(メタデータ) (2021-10-13T07:42:35Z) - DiffSinger: Diffusion Acoustic Model for Singing Voice Synthesis [53.19363127760314]
DiffSingerは、音楽スコアで調整されたメログラムにノイズを反復的に変換するパラメータ化されたマルコフチェーンです。
中国の歌唱データセットで行った評価は、DiffSingerが最先端のSVSワークを顕著な差で上回っていることを示している。
論文 参考訳(メタデータ) (2021-05-06T05:21:42Z) - Deep Learning Based Source Separation Applied To Choir Ensembles [9.711659088922838]
合唱歌は、ポリフォニック・ハーモニーで同時に歌う、アンサンブル・ソングの広く普及した形式である。
最も一般的な合唱曲の舞台はソプラノ、アルト、テノール、バス(SATB)の4つのパートで構成されている。
このコーラル設定のソース分離のタスクは、SATB混合物を構成部品に分離する必要がある。
論文 参考訳(メタデータ) (2020-08-17T22:07:44Z) - Unsupervised Cross-Domain Singing Voice Conversion [105.1021715879586]
任意の同一性から音声変換を行うタスクに対して,wav-to-wav生成モデルを提案する。
提案手法は,自動音声認識のタスクのために訓練された音響モデルとメロディ抽出機能の両方を用いて波形ベースジェネレータを駆動する。
論文 参考訳(メタデータ) (2020-08-06T18:29:11Z) - Addressing the confounds of accompaniments in singer identification [29.949390919663596]
我々は、ソース分離における最先端のパフォーマンスを備えたオープンソースツールであるopen-Unmixを用いて、ボーカルと楽器のトラックを分離する。
次に,歌手識別モデルを学習する2つの方法について検討する。
論文 参考訳(メタデータ) (2020-02-17T07:49:21Z) - Deep Autotuner: a Pitch Correcting Network for Singing Performances [26.019582802302033]
独唱演奏の自動ピッチ補正のためのデータ駆動方式を提案する。
良いイントネーションのために選択された4,702人のアマチュアカラオケパフォーマンスのデータセットを用いてニューラルネットワークモデルをトレーニングする。
畳み込み層上にゲートリカレントユニットを配置したディープニューラルネットワークは,実世界の楽譜なしの歌唱ピッチ補正タスクにおいて,有望な性能を示す。
論文 参考訳(メタデータ) (2020-02-12T01:33:56Z) - Score and Lyrics-Free Singing Voice Generation [48.55126268721948]
トレーニング時間と推論時間の両方において、事前に決められたスコアと歌詞のない歌声生成という、新しい挑戦的な代替手段を探求する。
生成的敵ネットワークを用いてそのようなモデルを実装し,客観的かつ主観的に評価する。
論文 参考訳(メタデータ) (2019-12-26T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。