論文の概要: Structure-Enhanced Pop Music Generation via Harmony-Aware Learning
- arxiv url: http://arxiv.org/abs/2109.06441v1
- Date: Tue, 14 Sep 2021 05:04:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:22:52.370294
- Title: Structure-Enhanced Pop Music Generation via Harmony-Aware Learning
- Title(参考訳): harmony-aware learningによる構造強調ポップ音楽生成
- Authors: Xueyao Zhang, Jinchao Zhang, Yao Qiu, Li Wang, Jie Zhou
- Abstract要約: 構造強化されたポップ・ミュージック・ジェネレーションに調和学習を活用することを提案する。
主観的・客観的評価の結果,Harmony-Aware Hierarchical Music Transformer (HAT) が生成した楽曲の質を著しく向上させることが示された。
- 参考スコア(独自算出の注目度): 20.06867705303102
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatically composing pop music with a satisfactory structure is an
attractive but challenging topic. Although the musical structure is easy to be
perceived by human, it is difficult to be described clearly and defined
accurately. And it is still far from being solved that how we should model the
structure in pop music generation. In this paper, we propose to leverage
harmony-aware learning for structure-enhanced pop music generation. On the one
hand, one of the participants of harmony, chord, represents the harmonic set of
multiple notes, which is integrated closely with the spatial structure of
music, texture. On the other hand, the other participant of harmony, chord
progression, usually accompanies with the development of the music, which
promotes the temporal structure of music, form. Besides, when chords evolve
into chord progression, the texture and the form can be bridged by the harmony
naturally, which contributes to the joint learning of the two structures.
Furthermore, we propose the Harmony-Aware Hierarchical Music Transformer (HAT),
which can exploit the structure adaptively from the music, and interact on the
music tokens at multiple levels to enhance the signals of the structure in
various musical elements. Results of subjective and objective evaluations
demonstrate that HAT significantly improves the quality of generated music,
especially in the structureness.
- Abstract(参考訳): ポップミュージックを満足のいく構造で自動作曲することは魅力的だが挑戦的なトピックである。
音楽構造は人間による認識が容易であるが、明確に記述し正確に定義することは困難である。
そして、ポップ音楽の生成における構造をどのようにモデル化すべきかは、まだ解明されていない。
本稿では,構造強化されたポップミュージック生成に調和学習を活用することを提案する。
一方、和声の参加者の1つであるコード(chord)は、音楽の空間構造、テクスチャと密接に統合された複数の音符の調和集合を表す。
一方、ハーモニーの他の参加者であるコード進行(chord progression)は、通常、音楽の時間的構造を促進する音楽の発展に付随する。
また、和音が和音の進行に発展していくと、そのテクスチャと形は自然に和音によって橋渡しされ、2つの構造の連成学習に寄与する。
さらに,Harmony-Aware Hierarchical Music Transformer (HAT)を提案し,その構造を音楽から適応的に利用し,複数のレベルの音楽トークンと対話することで,様々な音楽要素における構造信号を強化する。
主観的および客観的評価の結果,HATは生成した音楽の質,特に構造において著しく向上することが示された。
関連論文リスト
- A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - ComposerX: Multi-Agent Symbolic Music Composition with LLMs [51.68908082829048]
音楽の構成は、長い依存と調和の制約で情報を理解し、生成する能力を必要とする複雑なタスクである。
現在のLLMは、このタスクで簡単に失敗し、In-Context-LearningやChain-of-Thoughtsといったモダンな技術が組み込まれても、不適切な曲を生成する。
エージェントベースのシンボリック音楽生成フレームワークであるComposerXを提案する。
論文 参考訳(メタデータ) (2024-04-28T06:17:42Z) - Graph-based Polyphonic Multitrack Music Generation [9.701208207491879]
本稿では,音楽のための新しいグラフ表現と,音楽グラフの構造と内容を別々に生成する深部変分オートエンコーダを提案する。
音楽グラフの構造と内容を分離することにより、特定のタイミングでどの楽器が演奏されているかを指定することで条件生成が可能となる。
論文 参考訳(メタデータ) (2023-07-27T15:18:50Z) - WuYun: Exploring hierarchical skeleton-guided melody generation using
knowledge-enhanced deep learning [26.515527387450636]
WuYunは、生成された旋律の構造を改善するための知識に富んだディープラーニングアーキテクチャである。
音楽領域の知識を用いてメロディカルスケルトンを抽出し、シーケンシャルラーニングを用いて再構成する。
We demonstrate that WuYun can generate melodies with better long-term structure and musicality and improves other-of-the-art method by average 0.51。
論文 参考訳(メタデータ) (2023-01-11T14:33:42Z) - MeloForm: Generating Melody with Musical Form based on Expert Systems
and Neural Networks [146.59245563763065]
MeloFormは、エキスパートシステムとニューラルネットワークを使用して、音楽形式でメロディを生成するシステムである。
詩やコーラス形式、ロンド形式、変奏形式、ソナタ形式など、様々な形式をサポートすることができる。
論文 参考訳(メタデータ) (2022-08-30T15:44:15Z) - A-Muze-Net: Music Generation by Composing the Harmony based on the
Generated Melody [91.22679787578438]
ピアノ音楽のMidiファイルを生成する方法を提案する。
この方法は、左手を右手に固定した2つのネットワークを用いて、左右の手をモデル化する。
ミディは音階に不変な方法で表現され、メロディはハーモニーを調和させる目的で表現される。
論文 参考訳(メタデータ) (2021-11-25T09:45:53Z) - Controllable deep melody generation via hierarchical music structure
representation [14.891975420982511]
MusicFrameworksは階層的な音楽構造表現であり、フル長のメロディを作成するための多段階の生成プロセスである。
各フレーズでメロディを生成するために、2つの異なるトランスフォーマーベースネットワークを用いてリズムとベーシックメロディを生成する。
さまざまな曲をカスタマイズしたり追加したりするために、音楽フレームワークのコード、基本的なメロディ、リズム構造を変更して、それに応じてネットワークがメロディを生成する。
論文 参考訳(メタデータ) (2021-09-02T01:31:14Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Structural characterization of musical harmonies [4.416484585765029]
本研究では,エビデンスを収集する数値法を用いて変調を検出し,検出した調音性に基づいて,各調音成分の構造解析に非あいまいな文法を用いるハイブリッド手法を提案する。
XVIIとXVIII世紀の音楽による実験では、ほぼ97%のケースにおいて、少なくとも2つの和音の誤りで変調の正確な点を検出することができた。
論文 参考訳(メタデータ) (2019-12-27T23:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。