論文の概要: A Traditional Approach to Symbolic Piano Continuation
- arxiv url: http://arxiv.org/abs/2509.12267v1
- Date: Sat, 13 Sep 2025 14:22:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.665048
- Title: A Traditional Approach to Symbolic Piano Continuation
- Title(参考訳): シンボリックピアノ継続への伝統的なアプローチ
- Authors: Christian Zhou-Zheng, John Backsund, Dun Li Chan, Alex Coventry, Avid Eslami, Jyotin Goel, Xingwen Han, Danysh Soomro, Galen Wei,
- Abstract要約: 我々は,MIREX 2025 Music Generationの課題に対して,記号的ピアノ音楽継続に対する伝統的なアプローチを提案する。
我々は、より良いデータとより良い基礎を使用することで、大きな基礎モデルを上回ることを目指している。
- 参考スコア(独自算出の注目度): 0.21444354913370886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a traditional approach to symbolic piano music continuation for the MIREX 2025 Symbolic Music Generation challenge. While computational music generation has recently focused on developing large foundation models with sophisticated architectural modifications, we argue that simpler approaches remain more effective for constrained, single-instrument tasks. We thus return to a simple, unaugmented next-token-prediction objective on tokenized raw MIDI, aiming to outperform large foundation models by using better data and better fundamentals. We release model weights and code at https://github.com/christianazinn/mirex2025.
- Abstract(参考訳): 我々は,MIREX 2025シンボリック・ミュージック・ジェネレーションの課題に対して,従来のピアノのシンボリック・ミュージック・コンティニュエーションへのアプローチを提案する。
計算音楽生成は、最近、高度なアーキテクチャ修正を伴う大規模な基礎モデルの開発に焦点が当てられているが、より単純なアプローチは、制約のある単一構成タスクに対してより効果的である、と我々は論じている。
そこで我々は、より優れたデータとより良い基礎を利用して、大規模な基盤モデルを上回ることを目指して、トークン化された生MIDI上で、単純で未解決の次世代予測目標に回帰する。
モデルウェイトとコードはhttps://github.com/christianazinn/mirex2025でリリースしています。
関連論文リスト
- Scaling Self-Supervised Representation Learning for Symbolic Piano Performance [52.661197827466886]
本研究では,多量のシンボリック・ピアノ転写を訓練した自己回帰型トランスフォーマモデルの能力について検討した。
比較的小型で高品質なサブセットをファインチューンモデルに使い、音楽の継続を生成、シンボリックな分類タスクを実行し、汎用的なコントラストMIDI埋め込みを生成する。
論文 参考訳(メタデータ) (2025-06-30T14:00:14Z) - From Generality to Mastery: Composer-Style Symbolic Music Generation via Large-Scale Pre-training [4.7205815347741185]
広義のコーパスから学んだ一般的な音楽知識が、特定の作曲家スタイルの熟達度をいかに高めるかを検討する。
まず、ポップ、フォーク、クラシック音楽の大規模なコーパス上で、REMIベースの音楽生成モデルを事前訓練する。
そして、Bach、Mozart、Beethoven、Chopinの4人の著名な作曲家による、人間によって検証された小さなデータセットに、それを微調整します。
論文 参考訳(メタデータ) (2025-06-20T22:20:59Z) - Mamba-Diffusion Model with Learnable Wavelet for Controllable Symbolic Music Generation [5.083504224028769]
シンボリック・ミュージックをイメージライクなピアノロールとして表現し、シンボリック・ミュージックの生成に拡散モデルを用いることを容易にする。
本研究では,提案したTransformer-Mambaブロックと学習可能なウェーブレット変換を組み込んだ新しい拡散モデルを提案する。
評価の結果,本手法は音楽の質と可制御性の観点から説得力のある結果が得られることがわかった。
論文 参考訳(メタデータ) (2025-05-06T08:44:52Z) - MMT-BERT: Chord-aware Symbolic Music Generation Based on Multitrack Music Transformer and MusicBERT [44.204383306879095]
シンボリック・マルチトラック音楽生成に特化して設計された新しいシンボリック・ミュージック表現とジェネレーティブ・アディバーショナル・ネットワーク(GAN)フレームワークを提案する。
頑健なマルチトラック・ミュージック・ジェネレータを構築するため,事前学習したMusicBERTモデルを微調整して判別器として機能し,相対論的標準損失を取り入れた。
論文 参考訳(メタデータ) (2024-09-02T03:18:56Z) - MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss [51.85076222868963]
制御信号と対応する音楽トークンを直接リンクする事前学習タスクを導入する。
次に、生成した音楽と制御プロンプトとの整合性を向上する新たな対実的損失を実現する。
論文 参考訳(メタデータ) (2024-07-05T08:08:22Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - cMelGAN: An Efficient Conditional Generative Model Based on Mel
Spectrograms [0.0]
本研究はメルスペクトログラムに基づくジャンル条件付き音楽生成モデルを開発する。
音符ベース表現を用いた既存の生成音楽モデルと比較することにより,その性能を評価する。
論文 参考訳(メタデータ) (2022-05-15T15:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。