論文の概要: jaCappella Corpus: A Japanese a Cappella Vocal Ensemble Corpus
- arxiv url: http://arxiv.org/abs/2211.16028v1
- Date: Tue, 29 Nov 2022 08:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 18:18:20.208109
- Title: jaCappella Corpus: A Japanese a Cappella Vocal Ensemble Corpus
- Title(参考訳): ジャカペラ・コーパス(jaCappella Corpus) 日本のカペラ・ボーカル・アンサンブル・コーパス
- Authors: Tomohiko Nakamura, Shinnosuke Takamichi, Naoko Tanji, Satoru Fukayama,
Hiroshi Saruwatari
- Abstract要約: アカペラ声帯(jaCappella corpus)
著作権をクリアした35曲のボーカル・アンサンブルと、個々の音声パートの音声録音で構成されている。
- 参考スコア(独自算出の注目度): 36.14016166417995
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We construct a corpus of Japanese a cappella vocal ensembles (jaCappella
corpus) for vocal ensemble separation and synthesis. It consists of 35
copyright-cleared vocal ensemble songs and their audio recordings of individual
voice parts. These songs were arranged from out-of-copyright Japanese
children's songs and have six voice parts (lead vocal, soprano, alto, tenor,
bass, and vocal percussion). They are divided into seven subsets, each of which
features typical characteristics of a music genre such as jazz and enka. The
variety in genre and voice part match vocal ensembles recently widespread in
social media services such as YouTube, although the main targets of
conventional vocal ensemble datasets are choral singing made up of soprano,
alto, tenor, and bass. Experimental evaluation demonstrates that our corpus is
a challenging resource for vocal ensemble separation. Our corpus is available
on our project page (https://tomohikonakamura.github.io/jaCappella_corpus/).
- Abstract(参考訳): 音声アンサンブル分離合成のためのカペラ音声アンサンブル(jaCappella corpus)を日本語のコーパスで構築する。
著作権をクリアした35曲のボーカル・アンサンブルと、個々の音声パートの音声録音で構成されている。
これらの歌は、著作権のない日本の子どもの歌から作られ、6つの声部(リードボーカル、ソプラノ、アルト、テノール、ベース、ボーカルパーカッション)を持つ。
7つのサブセットに分けられ、それぞれジャズや演歌などの音楽ジャンルの典型的特徴を特徴とする。
ジャンルと声部の違いは、youtubeのようなソーシャルメディアサービスで最近広く普及した声楽アンサンブルと一致しているが、従来の声楽アンサンブルデータセットの主なターゲットはソプラノ、アルト、テノール、バスで構成される合唱歌である。
実験評価の結果,本コーパスは声帯分離の難解な資源であることが判明した。
私たちのコーパスはプロジェクトページ(https://tomohikonakamura.github.io/jacappella_corpus/)で閲覧できます。
関連論文リスト
- Sing-On-Your-Beat: Simple Text-Controllable Accompaniment Generations [5.56093728482997]
本稿では,テキストプロンプトによる伴奏制御を実現するための簡単な手法を提案する。
広範にわたる実験により,音声入力とテキスト制御を用いて10秒の伴奏を生成することに成功した。
論文 参考訳(メタデータ) (2024-11-03T19:17:20Z) - GTSinger: A Global Multi-Technique Singing Corpus with Realistic Music Scores for All Singing Tasks [52.30565320125514]
GTSingerは、グローバルで、多技術で、無料で使える、高品質な歌唱コーパスで、リアルな音楽スコアがある。
高品質な歌声を80.59時間収集し、最大の歌唱データセットを形成する。
我々は,技術制御可能な歌唱音声合成,技術認識,スタイル伝達,音声歌唱変換の4つのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-09-20T18:18:14Z) - Text-to-Song: Towards Controllable Music Generation Incorporating Vocals and Accompaniment [56.019288564115136]
ボーカルと伴奏の両方を組み込んだテキスト・ツー・サング・シンセサイザーという新しいタスクを提案する。
我々は,歌唱音声合成 (SVS) とV2A合成 (V2A) を組み合わせた2段階音声合成法であるメロディストを開発した。
評価結果は,メロディストが同等の品質とスタイルの整合性で楽曲を合成できることを実証した。
論文 参考訳(メタデータ) (2024-04-14T18:00:05Z) - SingSong: Generating musical accompaniments from singing [35.819589427197464]
入力ボーカルに付随する楽器音楽を生成するシステムであるSingSongについて述べる。
同じ音声入力と比較して、リスナーはSingSongが生成したインストゥルメンタルに対して重要な嗜好を表現した。
論文 参考訳(メタデータ) (2023-01-30T04:53:23Z) - Genre-conditioned Acoustic Models for Automatic Lyrics Transcription of
Polyphonic Music [73.73045854068384]
本稿では,新ジャンルネットワークを用いたポリフォニック音楽の歌詞の書き起こしを提案する。
提案するネットワークは,事前学習されたモデルパラメータを採用し,階層間のジャンルアダプタを組み込んで,歌詞とジャンルのペアのジャンルの特色を抽出する。
実験の結果,提案するジャンル条件付きネットワークは既存の歌詞の書き起こしシステムよりも優れていた。
論文 参考訳(メタデータ) (2022-04-07T09:15:46Z) - A Deep Learning Based Analysis-Synthesis Framework For Unison Singing [2.8139907342344364]
ユニソンの歌は、同じメロディと歌詞を歌う歌手のアンサンブルに与えられる名前である。
一斉混合音の録音において,各歌手の基本周波数分布(F0)を分析した。
本稿では,一斉混合を代表とするカペラ入力と単一音声プロトタイプから一斉合成を行うシステムを提案する。
論文 参考訳(メタデータ) (2020-09-21T13:48:01Z) - DeepSinger: Singing Voice Synthesis with Data Mined From the Web [194.10598657846145]
DeepSinger(ディープシンガー)は、音楽ウェブサイトから抽出された歌唱訓練データを用いて、スクラッチから構築された多言語歌唱音声合成システムである。
DeepSingerを3つの言語で89人の歌手から約92時間のデータからなるマイニングされた歌唱データセットで評価した。
論文 参考訳(メタデータ) (2020-07-09T07:00:48Z) - Addressing the confounds of accompaniments in singer identification [29.949390919663596]
我々は、ソース分離における最先端のパフォーマンスを備えたオープンソースツールであるopen-Unmixを用いて、ボーカルと楽器のトラックを分離する。
次に,歌手識別モデルを学習する2つの方法について検討する。
論文 参考訳(メタデータ) (2020-02-17T07:49:21Z) - Score and Lyrics-Free Singing Voice Generation [48.55126268721948]
トレーニング時間と推論時間の両方において、事前に決められたスコアと歌詞のない歌声生成という、新しい挑戦的な代替手段を探求する。
生成的敵ネットワークを用いてそのようなモデルを実装し,客観的かつ主観的に評価する。
論文 参考訳(メタデータ) (2019-12-26T01:45:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。