論文の概要: Personalizable Long-Context Symbolic Music Infilling with MIDI-RWKV
- arxiv url: http://arxiv.org/abs/2506.13001v1
- Date: Mon, 16 Jun 2025 00:04:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.284091
- Title: Personalizable Long-Context Symbolic Music Infilling with MIDI-RWKV
- Title(参考訳): MIDI-RWKVを用いたパーソナライズ可能なロングコンテキストシンボリック・ミュージック・インフィル
- Authors: Christian Zhou-Zheng, Philippe Pasquier,
- Abstract要約: エッジデバイス上での効率的でコヒーレントなコクリエーションを実現するために,RWKV-7線形アーキテクチャに基づく新しいモデルMIDI-RWKVを提案する。
また、MIDI-RWKVは、極低サンプル体制におけるパーソナライズのために、初期状態を微調整する効果的な方法を認めた。
- 参考スコア(独自算出の注目度): 6.349140286855134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing work in automatic music generation has primarily focused on end-to-end systems that produce complete compositions or continuations. However, because musical composition is typically an iterative process, such systems make it difficult to engage in the back-and-forth between human and machine that is essential to computer-assisted creativity. In this study, we address the task of personalizable, multi-track, long-context, and controllable symbolic music infilling to enhance the process of computer-assisted composition. We present MIDI-RWKV, a novel model based on the RWKV-7 linear architecture, to enable efficient and coherent musical cocreation on edge devices. We also demonstrate that MIDI-RWKV admits an effective method of finetuning its initial state for personalization in the very-low-sample regime. We evaluate MIDI-RWKV and its state tuning on several quantitative and qualitative metrics, and release model weights and code at https://github.com/christianazinn/MIDI-RWKV.
- Abstract(参考訳): 自動音楽生成における既存の作業は主に、完全な作曲や継続を生成するエンド・ツー・エンドのシステムに焦点を当てている。
しかし、音楽構成は典型的には反復的なプロセスであるため、コンピュータ支援の創造性に不可欠な人間と機械の間のバック・アンド・フォースへの関与を困難にしている。
本研究では,パーソナライズ可能な,複数トラック,長文,制御可能なシンボリック・ミュージック・インフィルメントの課題に対処し,コンピュータ・アシスト・コンポジションのプロセスを強化する。
RWKV-7線形アーキテクチャに基づく新しいモデルMIDI-RWKVを提案する。
また、MIDI-RWKVは、極低サンプル体制におけるパーソナライズのために、初期状態を微調整する効果的な方法を認めた。
我々はMIDI-RWKVとその状態チューニングをいくつかの量的および定性的なメトリクスで評価し, https://github.com/christianazinn/MIDI-RWKVでのリリースモデル重みとコードについて検討した。
関連論文リスト
- Calliope: An Online Generative Music System for Symbolic Multi-Track Composition [5.649205001069577]
Calliopeは、様々なマルチトラックコンポジションタスクの実行を支援するWebアプリケーションである。
ユーザはMIDIファイルをアップロードし(Musical Instrument Digital Interface)、MIDIトラックを視覚化して編集し、部分的な(バーインフィル)または完全なマルチトラックコンテンツを生成することができる。
論文 参考訳(メタデータ) (2025-04-18T20:06:18Z) - MIDI-GPT: A Controllable Generative Model for Computer-Assisted Multitrack Music Composition [4.152843247686306]
MIDI-GPTはコンピュータ支援音楽合成のための生成システムである。
楽器の種類、音楽スタイル、音の密度、ポリフォニーレベル、音の持続時間などの属性を条件付けできる。
本研究では,MIDI-GPTがトレーニング対象の音楽素材の複製を一貫して回避し,トレーニングデータセットとスタイリスティックに類似した音楽を生成し,属性制御が生成した素材に様々な制約を課すことを実証する実験結果を示す。
論文 参考訳(メタデータ) (2025-01-28T15:17:36Z) - Multi-view MidiVAE: Fusing Track- and Bar-view Representations for Long
Multi-track Symbolic Music Generation [50.365392018302416]
長い多トラックのシンボリック・ミュージックを効果的にモデル化・生成するVAE手法の先駆者の一つであるMulti-view MidiVAEを提案する。
我々は,ハイブリッドな変分符号化・復号化戦略を用いて,楽器の特徴と調和,および楽曲のグローバルおよびローカルな情報に焦点をあてる。
論文 参考訳(メタデータ) (2024-01-15T08:41:01Z) - Performance Conditioning for Diffusion-Based Multi-Instrument Music
Synthesis [15.670399197114012]
本稿では,特定の性能と記録環境に生成モデルを条件付け,多施設合成の制御を強化することを提案する。
パフォーマンスコンディショニング(Performance Conditioning)とは、特定の演奏から採った特定の楽器のスタイルと音色で音楽を合成する生成モデルを示すツールである。
試作機は,多種多様な楽器と最先端のFADリアリズムスコアを用いた未計算性能を用いて評価した。
論文 参考訳(メタデータ) (2023-09-21T17:44:57Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - The Piano Inpainting Application [0.0]
生成アルゴリズムは、提供された制御の制限、推論の禁止、ミュージシャンの生成への統合の欠如のために、依然としてアーティストによって広く使われていない。
本稿では,ピアノ演奏のインペインティングに着目した生成モデルであるピアノ・インペインティング・アプリケーション(PIA)について述べる。
論文 参考訳(メタデータ) (2021-07-13T09:33:11Z) - A framework to compare music generative models using automatic
evaluation metrics extended to rhythm [69.2737664640826]
本稿では,前回の研究で提示された,リズムを考慮せず,設計決定を下すための枠組みを取り上げ,単音素音楽作成における2つのrnnメモリセルの性能評価のためにリズムサポートを付加した。
モデルでは,音素変換の処理を考慮し,リズムサポートを付加した幾何学に基づく自動計測値を用いて,生成した楽曲の質を評価する。
論文 参考訳(メタデータ) (2021-01-19T15:04:46Z) - PopMAG: Pop Music Accompaniment Generation [190.09996798215738]
単一シーケンスでの同時マルチトラック生成が可能なMUlti-track MIDI表現(MuMIDI)を提案する。
MuMIDIはシーケンス長を拡大し、長期音楽モデリングの新しい課題をもたらす。
我々は,ポップミュージックの伴奏生成をPopMAGと呼ぶ。
論文 参考訳(メタデータ) (2020-08-18T02:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。