論文の概要: PianoBART: Symbolic Piano Music Generation and Understanding with Large-Scale Pre-Training
- arxiv url: http://arxiv.org/abs/2407.03361v1
- Date: Wed, 26 Jun 2024 03:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 22:09:04.970992
- Title: PianoBART: Symbolic Piano Music Generation and Understanding with Large-Scale Pre-Training
- Title(参考訳): PianoBART:シンボリック・ピアノ・ミュージック・ジェネレーションと大規模事前学習による理解
- Authors: Xiao Liang, Zijian Zhao, Weichao Zeng, Yutong He, Fupeng He, Yiyi Wang, Chengying Gao,
- Abstract要約: PianoBARTは、BARTを象徴的なピアノ音楽の生成と理解の両方に使用する事前訓練されたモデルである。
我々は,PanoBARTの事前学習タスクに対して,情報漏洩や損失を防止できる多レベルオブジェクト選択戦略を考案した。
実験により、ピアノBARTは効率よく音楽パターンを学習し、高品質なコヒーレントな作品を生成する際、優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 8.484581633133542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning musical structures and composition patterns is necessary for both music generation and understanding, but current methods do not make uniform use of learned features to generate and comprehend music simultaneously. In this paper, we propose PianoBART, a pre-trained model that uses BART for both symbolic piano music generation and understanding. We devise a multi-level object selection strategy for different pre-training tasks of PianoBART, which can prevent information leakage or loss and enhance learning ability. The musical semantics captured in pre-training are fine-tuned for music generation and understanding tasks. Experiments demonstrate that PianoBART efficiently learns musical patterns and achieves outstanding performance in generating high-quality coherent pieces and comprehending music. Our code and supplementary material are available at https://github.com/RS2002/PianoBart.
- Abstract(参考訳): 音楽生成と理解には音楽構造と作曲パターンの学習が必要であるが,現在の手法では,音楽の生成と理解を同時に行うために,学習した特徴の統一的利用は行っていない。
本稿では,BARTを記号的ピアノ音楽生成と理解の両方に利用する事前学習モデルであるPianoBARTを提案する。
我々は、情報漏洩や損失を防止し、学習能力を高めるために、PanoBARTの様々な事前学習タスクのためのマルチレベルオブジェクト選択戦略を考案する。
事前学習で得られた音楽意味論は、音楽生成と理解タスクのために微調整される。
実験により、ピアノBARTは効率よく音楽パターンを学習し、高品質なコヒーレントな曲を生成し、音楽を理解する上で優れたパフォーマンスを発揮することが示された。
私たちのコードと補足資料はhttps://github.com/RS2002/PianoBart.comで公開されています。
関連論文リスト
- Towards Explainable and Interpretable Musical Difficulty Estimation: A Parameter-efficient Approach [49.2787113554916]
音楽コレクションの整理には曲の難易度を推定することが重要である。
シンボリックな音楽表現の難易度推定には説明可能な記述子を用いる。
ピアノレパートリーで評価したアプローチは,平均2乗誤差(MSE)が1.7。
論文 参考訳(メタデータ) (2024-08-01T11:23:42Z) - PianoMotion10M: Dataset and Benchmark for Hand Motion Generation in Piano Performance [15.21347897534943]
ピアノ演奏のための手の動きと指の動きをガイドするピアノハンド動作生成ベンチマークを構築した。
この目的のために,1000万個の手ポーズを持つ鳥眼ビューから116時間のピアノ演奏ビデオからなる注釈付きデータセットPianoMotion10Mを収集した。
論文 参考訳(メタデータ) (2024-06-13T17:05:23Z) - ComposerX: Multi-Agent Symbolic Music Composition with LLMs [51.68908082829048]
音楽の構成は、長い依存と調和の制約で情報を理解し、生成する能力を必要とする複雑なタスクである。
現在のLLMは、このタスクで簡単に失敗し、In-Context-LearningやChain-of-Thoughtsといったモダンな技術が組み込まれても、不適切な曲を生成する。
エージェントベースのシンボリック音楽生成フレームワークであるComposerXを提案する。
論文 参考訳(メタデータ) (2024-04-28T06:17:42Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Compose & Embellish: Well-Structured Piano Performance Generation via A
Two-Stage Approach [36.49582705724548]
まずリードシートを構成する2段階のTransformerベースのフレームワークを考案し,それを伴奏と表現力のあるタッチで実装する。
目的および主観的な実験により,コンポジション・アンド・エンベリッシュは芸術の現在の状態と実演の間の構造的ギャップを半分に縮め,豊かさやコヒーレンスといった他の音楽的側面も改善することが示された。
論文 参考訳(メタデータ) (2022-09-17T01:20:59Z) - Concept-Based Techniques for "Musicologist-friendly" Explanations in a
Deep Music Classifier [5.442298461804281]
ハイレベルな音楽概念に基づくより人間フレンドリーな説明に焦点を当てる。
我々の研究は、訓練されたシステム(ポストホックな説明)をターゲットとし、2つのアプローチを探求する。
既存のシンボリック作曲家分類システムにおいて,両手法を実証し,その可能性を示し,本質的な限界を強調した。
論文 参考訳(メタデータ) (2022-08-26T07:45:29Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Towards Learning to Play Piano with Dexterous Hands and Touch [79.48656721563795]
そこで我々は,エージェントが機械可読音楽から直接学習して,模擬ピアノで器用な手でピアノを弾く方法を示した。
我々は、タッチ強化された報酬と、新しいタスクのカリキュラムを使用することで、これを実現する。
論文 参考訳(メタデータ) (2021-06-03T17:59:31Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。