論文の概要: Controllable deep melody generation via hierarchical music structure
representation
- arxiv url: http://arxiv.org/abs/2109.00663v1
- Date: Thu, 2 Sep 2021 01:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-04 02:25:11.849413
- Title: Controllable deep melody generation via hierarchical music structure
representation
- Title(参考訳): 階層的音楽構造表現による制御可能な深層メロディ生成
- Authors: Shuqi Dai, Zeyu Jin, Celso Gomes, Roger B. Dannenberg
- Abstract要約: MusicFrameworksは階層的な音楽構造表現であり、フル長のメロディを作成するための多段階の生成プロセスである。
各フレーズでメロディを生成するために、2つの異なるトランスフォーマーベースネットワークを用いてリズムとベーシックメロディを生成する。
さまざまな曲をカスタマイズしたり追加したりするために、音楽フレームワークのコード、基本的なメロディ、リズム構造を変更して、それに応じてネットワークがメロディを生成する。
- 参考スコア(独自算出の注目度): 14.891975420982511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in deep learning have expanded possibilities to generate
music, but generating a customizable full piece of music with consistent
long-term structure remains a challenge. This paper introduces MusicFrameworks,
a hierarchical music structure representation and a multi-step generative
process to create a full-length melody guided by long-term repetitive
structure, chord, melodic contour, and rhythm constraints. We first organize
the full melody with section and phrase-level structure. To generate melody in
each phrase, we generate rhythm and basic melody using two separate
transformer-based networks, and then generate the melody conditioned on the
basic melody, rhythm and chords in an auto-regressive manner. By factoring
music generation into sub-problems, our approach allows simpler models and
requires less data. To customize or add variety, one can alter chords, basic
melody, and rhythm structure in the music frameworks, letting our networks
generate the melody accordingly. Additionally, we introduce new features to
encode musical positional information, rhythm patterns, and melodic contours
based on musical domain knowledge. A listening test reveals that melodies
generated by our method are rated as good as or better than human-composed
music in the POP909 dataset about half the time.
- Abstract(参考訳): ディープラーニングの最近の進歩は、音楽を生成する可能性を広げてきたが、一貫性のある長期構造を持つカスタマイズ可能な全曲の生成は依然として課題である。
本稿では, 長期繰り返し構造, コード, 旋律輪郭, リズム制約によってガイドされる完全長旋律を生成するための, 階層的な音楽構造表現と多段階生成プロセスであるMusicFrameworksを紹介する。
まず、セクションとフレーズレベルの構造を持つ全旋律を整理する。
各フレーズでメロディを生成するために、2つの異なるトランスフォーマーベースネットワークを用いてリズムとベーシックメロディを生成し、その後、基本メロディ、リズム、コードに基づいて自動回帰的にメロディを生成する。
音楽生成をサブプロブレムに分解することで、よりシンプルなモデルを可能にし、少ないデータを必要とする。
さまざまな曲をカスタマイズまたは追加するために、音楽フレームワークのコード、基本的なメロディ、リズム構造を変更することができる。
さらに,音楽領域の知識に基づいた位置情報,リズムパターン,旋律輪郭を符号化する新たな特徴を導入する。
リスニングテストでは,pop909データセットで生成したメロディが,人間の作曲した音楽とほぼ同程度に評価されていることが明らかとなった。
関連論文リスト
- MelodyGLM: Multi-task Pre-training for Symbolic Melody Generation [39.892059799407434]
MelodyGLMは長期構造を持つメロディを生成するためのマルチタスク事前学習フレームワークである。
我々は,0.4百万以上のメロディを含む大規模な記号的メロディデータセットMelodyNetを構築した。
論文 参考訳(メタデータ) (2023-09-19T16:34:24Z) - Graph-based Polyphonic Multitrack Music Generation [9.701208207491879]
本稿では,音楽のための新しいグラフ表現と,音楽グラフの構造と内容を別々に生成する深部変分オートエンコーダを提案する。
音楽グラフの構造と内容を分離することにより、特定のタイミングでどの楽器が演奏されているかを指定することで条件生成が可能となる。
論文 参考訳(メタデータ) (2023-07-27T15:18:50Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Unsupervised Melody-Guided Lyrics Generation [84.22469652275714]
メロディと歌詞の一致したデータを学習することなく、楽しく聴ける歌詞を生成することを提案する。
メロディと歌詞間の重要なアライメントを活用し、与えられたメロディを制約にコンパイルし、生成プロセスを導く。
論文 参考訳(メタデータ) (2023-05-12T20:57:20Z) - WuYun: Exploring hierarchical skeleton-guided melody generation using
knowledge-enhanced deep learning [26.515527387450636]
WuYunは、生成された旋律の構造を改善するための知識に富んだディープラーニングアーキテクチャである。
音楽領域の知識を用いてメロディカルスケルトンを抽出し、シーケンシャルラーニングを用いて再構成する。
We demonstrate that WuYun can generate melodies with better long-term structure and musicality and improves other-of-the-art method by average 0.51。
論文 参考訳(メタデータ) (2023-01-11T14:33:42Z) - Melody transcription via generative pre-training [86.08508957229348]
メロディの書き起こしの鍵となる課題は、様々な楽器のアンサンブルや音楽スタイルを含む幅広いオーディオを処理できる方法を構築することである。
この課題に対処するために、広帯域オーディオの生成モデルであるJukebox(Dhariwal et al. 2020)の表現を活用する。
広義音楽のクラウドソースアノテーションから50ドル(約5,400円)のメロディ書き起こしを含む新しいデータセットを導出する。
論文 参考訳(メタデータ) (2022-12-04T18:09:23Z) - MeloForm: Generating Melody with Musical Form based on Expert Systems
and Neural Networks [146.59245563763065]
MeloFormは、エキスパートシステムとニューラルネットワークを使用して、音楽形式でメロディを生成するシステムである。
詩やコーラス形式、ロンド形式、変奏形式、ソナタ形式など、様々な形式をサポートすることができる。
論文 参考訳(メタデータ) (2022-08-30T15:44:15Z) - Re-creation of Creations: A New Paradigm for Lyric-to-Melody Generation [158.54649047794794]
Re-creation of Creations (ROC)は、歌詞からメロディ生成のための新しいパラダイムである。
ROCは、Lyric-to-Meody生成において、優れたLyric-Meody特徴アライメントを実現する。
論文 参考訳(メタデータ) (2022-08-11T08:44:47Z) - Structure-Enhanced Pop Music Generation via Harmony-Aware Learning [20.06867705303102]
構造強化されたポップ・ミュージック・ジェネレーションに調和学習を活用することを提案する。
主観的・客観的評価の結果,Harmony-Aware Hierarchical Music Transformer (HAT) が生成した楽曲の質を著しく向上させることが示された。
論文 参考訳(メタデータ) (2021-09-14T05:04:13Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z) - Continuous Melody Generation via Disentangled Short-Term Representations
and Structural Conditions [14.786601824794369]
ユーザが指定したシンボリックシナリオと過去の音楽コンテキストを組み合わせることで,メロディーを構成するモデルを提案する。
本モデルでは,8拍子の音符列を基本単位として長い旋律を生成でき,一貫したリズムパターン構造を他の特定の歌と共有することができる。
その結果,本モデルが生成する音楽は,顕著な繰り返し構造,豊かな動機,安定したリズムパターンを有する傾向が示唆された。
論文 参考訳(メタデータ) (2020-02-05T06:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。