論文の概要: Exploring Transformer-Based Music Overpainting for Jazz Piano Variations
- arxiv url: http://arxiv.org/abs/2412.04610v1
- Date: Thu, 05 Dec 2024 20:48:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:54:59.870519
- Title: Exploring Transformer-Based Music Overpainting for Jazz Piano Variations
- Title(参考訳): ジャズピアノ変奏のためのトランスフォーマーによる楽曲オーバーペイントの探索
- Authors: Eleanor Row, Ivan Shanin, György Fazekas,
- Abstract要約: 音楽のオーバーペイントは、入力の旋律構造と調和構造を保持しながら、新しいバリエーションを生成する。
既存のアプローチは小さなデータセットによって制限されており、スケーラビリティと多様性が制限されている。
VAR4000は,4,352組のトレーニングペアからなる,より大きなジャズピアノ演奏データセットのサブセットである。
予備的な結果は、より大きなデータセット構成による一般化とパフォーマンスの有望な改善を示している。
- 参考スコア(独自算出の注目度): 3.6594988197536344
- License:
- Abstract: This paper explores transformer-based models for music overpainting, focusing on jazz piano variations. Music overpainting generates new variations while preserving the melodic and harmonic structure of the input. Existing approaches are limited by small datasets, restricting scalability and diversity. We introduce VAR4000, a subset of a larger dataset for jazz piano performances, consisting of 4,352 training pairs. Using a semi-automatic pipeline, we evaluate two transformer configurations on VAR4000, comparing their performance with the smaller JAZZVAR dataset. Preliminary results show promising improvements in generalisation and performance with the larger dataset configuration, highlighting the potential of transformer models to scale effectively for music overpainting on larger and more diverse datasets.
- Abstract(参考訳): 本稿では,ジャズピアノの変奏に焦点をあて,トランスフォーマーを用いた楽曲オーバーペイントモデルについて検討する。
音楽のオーバーペイントは、入力の旋律構造と調和構造を保持しながら、新しいバリエーションを生成する。
既存のアプローチは小さなデータセットによって制限されており、スケーラビリティと多様性が制限されている。
VAR4000は,4,352組のトレーニングペアからなる,より大きなジャズピアノ演奏データセットのサブセットである。
セミオートマチックパイプラインを用いて、より小さなJAZVARデータセットと比較し、VAR4000上の2つのトランスフォーマー構成を評価する。
予備的な結果は、より大きなデータセット構成による一般化とパフォーマンスの有望な改善を示し、より大きく多様なデータセットにオーバーペイントする音楽に効果的にスケールするトランスフォーマーモデルの可能性を強調している。
関連論文リスト
- Music102: An $D_{12}$-equivariant transformer for chord progression accompaniment [0.0]
Music102は、D12等価変圧器によるコード進行伴奏を強化する。
先行する音楽知識を符号化することにより、モデルはメロディとコードシーケンスの双方で等価性を維持する。
この研究は、離散音楽領域への自己注意機構と層正規化の適応性を示す。
論文 参考訳(メタデータ) (2024-10-23T03:11:01Z) - JAZZVAR: A Dataset of Variations found within Solo Piano Performances of
Jazz Standards for Music Overpainting [2.5137859989323537]
我々は502組の変動MIDIセグメントとオリジナルMIDIセグメントのデータセットを作成する。
データセットの各バリエーションには、オリジナルのジャズ標準からのメロディとコードを含む対応するオリジナルセグメントが付属している。
私たちのデータセットの他の潜在的な応用には、表現力のあるパフォーマンス分析とパフォーマーの識別がある。
論文 参考訳(メタデータ) (2023-07-18T22:48:54Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Pre-training Transformers for Knowledge Graph Completion [81.4078733132239]
知識グラフの伝達可能な表現を学習するための新しい帰納的KG表現モデル(iHT)を提案する。
iHT はエンティティエンコーダ (BERT など) と、Transformer によってパラメータ化される隣り合うリレーショナルスコアリング関数からなる。
提案手法は,従来のSOTAモデルに比べて25%以上の相対的相互ランクの改善が得られた。
論文 参考訳(メタデータ) (2023-03-28T02:10:37Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - MAT: Mask-Aware Transformer for Large Hole Image Inpainting [79.67039090195527]
本稿では, 変圧器と畳み込みの利点を統一する, 大穴塗装の新しいモデルを提案する。
実験では、複数のベンチマークデータセット上で、新しいモデルの最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-03-29T06:36:17Z) - BEVT: BERT Pretraining of Video Transformers [89.08460834954161]
本稿では,映像表現学習を空間表現学習と時間ダイナミクス学習に分離するBEVTを紹介する。
我々は、BEVTが非常に有望な結果を得る3つの挑戦的なビデオベンチマークについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-12-02T18:59:59Z) - Calliope -- A Polyphonic Music Transformer [9.558051115598657]
ポリフォニック音楽のマルチトラックシーケンスを効率的にモデル化するためのトランスフォーマーに基づく新しいオートエンコーダモデルCalliopeを提案する。
実験により,我々のモデルは,音楽シーケンスの再構築と生成における技術状況を改善することができることが示された。
論文 参考訳(メタデータ) (2021-07-08T08:18:57Z) - Vision Transformers for Dense Prediction [77.34726150561087]
高密度予測タスクのバックボーンとして、畳み込みネットワークの代わりにビジョントランスを活用するアーキテクチャである高密度ビジョントランスを紹介します。
実験により,このアーキテクチャは高密度予測タスクにおいて大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-03-24T18:01:17Z) - The Jazz Transformer on the Front Line: Exploring the Shortcomings of
AI-composed Music through Quantitative Measures [36.49582705724548]
本稿では,ジャズ音楽のリードシートをモデル化するために,Transformer-XLと呼ばれるニューラルシーケンスモデルを利用する生成モデルであるJazz Transformerを提案する。
次に、異なる視点から生成された合成の一連の計算分析を行う。
我々の研究は、なぜ現在まで機械生成音楽が人類の芸術に及ばないのか分析的な方法で示し、今後の自動作曲への取り組みがさらに追求されるよう、いくつかの目標を設定している。
論文 参考訳(メタデータ) (2020-08-04T03:32:59Z) - Pop Music Transformer: Beat-based Modeling and Generation of Expressive
Pop Piano Compositions [37.66340344198797]
我々は、既存のトランスフォーマーモデルよりも優れたリズム構造でポップピアノ音楽を構成するポップ・ミュージック・トランスフォーマーを構築した。
特に、入力データにメートル法構造を課すことにより、トランスフォーマーは音楽のビートバーフレーズ階層構造をより容易に認識できるようにする。
論文 参考訳(メタデータ) (2020-02-01T14:12:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。