論文の概要: jaCappella Corpus: A Japanese a Cappella Vocal Ensemble Corpus
- arxiv url: http://arxiv.org/abs/2211.16028v1
- Date: Tue, 29 Nov 2022 08:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 18:18:20.208109
- Title: jaCappella Corpus: A Japanese a Cappella Vocal Ensemble Corpus
- Title(参考訳): ジャカペラ・コーパス(jaCappella Corpus) 日本のカペラ・ボーカル・アンサンブル・コーパス
- Authors: Tomohiko Nakamura, Shinnosuke Takamichi, Naoko Tanji, Satoru Fukayama,
Hiroshi Saruwatari
- Abstract要約: アカペラ声帯(jaCappella corpus)
著作権をクリアした35曲のボーカル・アンサンブルと、個々の音声パートの音声録音で構成されている。
- 参考スコア(独自算出の注目度): 36.14016166417995
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We construct a corpus of Japanese a cappella vocal ensembles (jaCappella
corpus) for vocal ensemble separation and synthesis. It consists of 35
copyright-cleared vocal ensemble songs and their audio recordings of individual
voice parts. These songs were arranged from out-of-copyright Japanese
children's songs and have six voice parts (lead vocal, soprano, alto, tenor,
bass, and vocal percussion). They are divided into seven subsets, each of which
features typical characteristics of a music genre such as jazz and enka. The
variety in genre and voice part match vocal ensembles recently widespread in
social media services such as YouTube, although the main targets of
conventional vocal ensemble datasets are choral singing made up of soprano,
alto, tenor, and bass. Experimental evaluation demonstrates that our corpus is
a challenging resource for vocal ensemble separation. Our corpus is available
on our project page (https://tomohikonakamura.github.io/jaCappella_corpus/).
- Abstract(参考訳): 音声アンサンブル分離合成のためのカペラ音声アンサンブル(jaCappella corpus)を日本語のコーパスで構築する。
著作権をクリアした35曲のボーカル・アンサンブルと、個々の音声パートの音声録音で構成されている。
これらの歌は、著作権のない日本の子どもの歌から作られ、6つの声部(リードボーカル、ソプラノ、アルト、テノール、ベース、ボーカルパーカッション)を持つ。
7つのサブセットに分けられ、それぞれジャズや演歌などの音楽ジャンルの典型的特徴を特徴とする。
ジャンルと声部の違いは、youtubeのようなソーシャルメディアサービスで最近広く普及した声楽アンサンブルと一致しているが、従来の声楽アンサンブルデータセットの主なターゲットはソプラノ、アルト、テノール、バスで構成される合唱歌である。
実験評価の結果,本コーパスは声帯分離の難解な資源であることが判明した。
私たちのコーパスはプロジェクトページ(https://tomohikonakamura.github.io/jacappella_corpus/)で閲覧できます。
関連論文リスト
- StyleSinger: Style Transfer for Out-of-Domain Singing Voice Synthesis [65.56386869666025]
ドメイン外歌唱音声合成(SVS)のためのスタイル転送は、目に見えないスタイルで高品質な歌唱音声を生成することに焦点を当てている。
StyleSingerは、ドメイン外参照音声サンプルのゼロショットスタイル転送のための最初の歌声合成モデルである。
ゼロショット・スタイル・トランスファーにおける評価は、StyleSingerが基準歌唱音声サンプルの音質と類似性の両方でベースライン・モデルより優れていることを不確実に証明している。
論文 参考訳(メタデータ) (2023-12-17T15:26:16Z) - SingSong: Generating musical accompaniments from singing [35.819589427197464]
入力ボーカルに付随する楽器音楽を生成するシステムであるSingSongについて述べる。
同じ音声入力と比較して、リスナーはSingSongが生成したインストゥルメンタルに対して重要な嗜好を表現した。
論文 参考訳(メタデータ) (2023-01-30T04:53:23Z) - Genre-conditioned Acoustic Models for Automatic Lyrics Transcription of
Polyphonic Music [73.73045854068384]
本稿では,新ジャンルネットワークを用いたポリフォニック音楽の歌詞の書き起こしを提案する。
提案するネットワークは,事前学習されたモデルパラメータを採用し,階層間のジャンルアダプタを組み込んで,歌詞とジャンルのペアのジャンルの特色を抽出する。
実験の結果,提案するジャンル条件付きネットワークは既存の歌詞の書き起こしシステムよりも優れていた。
論文 参考訳(メタデータ) (2022-04-07T09:15:46Z) - Learning the Beauty in Songs: Neural Singing Voice Beautifier [69.21263011242907]
我々は、新しいタスク、歌声美化(SVB)に興味を持っている。
アマチュア歌手の歌声を考えると、SVBは内容と声の音色を保ちながら、声のイントネーションと声のトーンを改善することを目的としている。
SVBタスクを解く最初の生成モデルであるNSVB(Neural Singing Voice Beautifier)を導入する。
論文 参考訳(メタデータ) (2022-02-27T03:10:12Z) - A cappella: Audio-visual Singing Voice Separation [4.6453787256723365]
マルチモーダルの観点からシングルチャンネル歌唱音声分離問題について検討する。
今回紹介するAcappellaは、YouTubeからソースされたカペラソロの歌唱ビデオの46時間に及ぶデータセットだ。
本稿では,最先端の歌唱音声分離結果を実現する音声視覚畳み込みニューラルネットワークY-Netを提案する。
論文 参考訳(メタデータ) (2021-04-20T13:17:06Z) - PPG-based singing voice conversion with adversarial representation
learning [18.937609682084034]
歌声変換は、歌唱内容とメロディを維持しながら、ある歌手の声を他の歌手の声に変換することを目的としている。
エンド・ツー・エンドのアーキテクチャを構築し、後部グラフを入力とし、メルスペクトログラムを生成する。
提案手法は, 自然性, メロディ, および音声類似性の観点から, 変換性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2020-10-28T08:03:27Z) - A Deep Learning Based Analysis-Synthesis Framework For Unison Singing [2.8139907342344364]
ユニソンの歌は、同じメロディと歌詞を歌う歌手のアンサンブルに与えられる名前である。
一斉混合音の録音において,各歌手の基本周波数分布(F0)を分析した。
本稿では,一斉混合を代表とするカペラ入力と単一音声プロトタイプから一斉合成を行うシステムを提案する。
論文 参考訳(メタデータ) (2020-09-21T13:48:01Z) - DeepSinger: Singing Voice Synthesis with Data Mined From the Web [194.10598657846145]
DeepSinger(ディープシンガー)は、音楽ウェブサイトから抽出された歌唱訓練データを用いて、スクラッチから構築された多言語歌唱音声合成システムである。
DeepSingerを3つの言語で89人の歌手から約92時間のデータからなるマイニングされた歌唱データセットで評価した。
論文 参考訳(メタデータ) (2020-07-09T07:00:48Z) - Addressing the confounds of accompaniments in singer identification [29.949390919663596]
我々は、ソース分離における最先端のパフォーマンスを備えたオープンソースツールであるopen-Unmixを用いて、ボーカルと楽器のトラックを分離する。
次に,歌手識別モデルを学習する2つの方法について検討する。
論文 参考訳(メタデータ) (2020-02-17T07:49:21Z) - Score and Lyrics-Free Singing Voice Generation [48.55126268721948]
トレーニング時間と推論時間の両方において、事前に決められたスコアと歌詞のない歌声生成という、新しい挑戦的な代替手段を探求する。
生成的敵ネットワークを用いてそのようなモデルを実装し,客観的かつ主観的に評価する。
論文 参考訳(メタデータ) (2019-12-26T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。