論文の概要: MuseCPBench: an Empirical Study of Music Editing Methods through Music Context Preservation
- arxiv url: http://arxiv.org/abs/2512.14629v1
- Date: Tue, 16 Dec 2025 17:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.819694
- Title: MuseCPBench: an Empirical Study of Music Editing Methods through Music Context Preservation
- Title(参考訳): MuseCPBench:音楽文脈保存による音楽編集手法の実証的研究
- Authors: Yash Vishe, Eric Xue, Xunyi Jiang, Zachary Novack, Junda Wu, Julian McAuley, Xin Xu,
- Abstract要約: 音楽編集は現代音楽制作において重要な役割を担い、映画、放送、ゲーム開発に応用されている。
既存の作品の多くは、編集中に変化のない音楽の面を保存できる能力の評価を見落としている。
MCP評価ベンチマークであるMuseCPBenchを紹介する。
- 参考スコア(独自算出の注目度): 30.88898550337434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music editing plays a vital role in modern music production, with applications in film, broadcasting, and game development. Recent advances in music generation models have enabled diverse editing tasks such as timbre transfer, instrument substitution, and genre transformation. However, many existing works overlook the evaluation of their ability to preserve musical facets that should remain unchanged during editing a property we define as Music Context Preservation (MCP). While some studies do consider MCP, they adopt inconsistent evaluation protocols and metrics, leading to unreliable and unfair comparisons. To address this gap, we introduce the first MCP evaluation benchmark, MuseCPBench, which covers four categories of musical facets and enables comprehensive comparisons across five representative music editing baselines. Through systematic analysis along musical facets, methods, and models, we identify consistent preservation gaps in current music editing methods and provide insightful explanations. We hope our findings offer practical guidance for developing more effective and reliable music editing strategies with strong MCP capability
- Abstract(参考訳): 音楽編集は現代音楽制作において重要な役割を担い、映画、放送、ゲーム開発に応用されている。
近年の音楽生成モデルの進歩により、音色変換、楽器置換、ジャンル変換といった多様な編集作業が可能になった。
しかし、既存の作品の多くは、音楽コンテキスト保存(MCP)として定義するプロパティを編集する際に変更すべき音楽のファセットを保存できる能力の評価を見落としている。
MCPを考慮に入れている研究もあるが、一貫性のない評価プロトコルとメトリクスを採用しており、信頼できない不公平な比較に繋がる。
このギャップに対処するために、最初のMPP評価ベンチマークであるMuseCPBenchを導入し、音楽の4つのカテゴリをカバーし、5つの代表的な音楽編集ベースラインの総合的な比較を可能にする。
音楽のファセットや手法,モデルに沿った体系的な分析を通じて,現代音楽編集手法における一貫した保存ギャップを識別し,洞察に富んだ説明を提供する。
MCP機能強化によるより効率的で信頼性の高い音楽編集戦略開発のための実践的ガイダンスを提供することを願っている。
関連論文リスト
- BASS: Benchmarking Audio LMs for Musical Structure and Semantic Reasoning [74.84822135705025]
本稿では,音声言語モデルにおける音楽理解と推論の評価を目的としたBASSを紹介する。
BASSは12のタスクにまたがる2658の質問、1993年の独特な曲、138時間以上の音楽をカバーしている。
我々は14のオープンソースおよびフロンティアマルチモーダルLMを評価し、最先端モデルでさえ高いレベルの推論タスクに苦しむことを発見した。
論文 参考訳(メタデータ) (2026-02-03T23:40:31Z) - Music Flamingo: Scaling Music Understanding in Audio Language Models [98.94537017112704]
Music Flamingoは、基礎的なオーディオモデルにおける音楽理解を促進するために設計された、新しい大きなオーディオ言語モデルである。
MF-Skillsはマルチステージパイプラインを通じてラベル付けされたデータセットで、調和、構造、音色、歌詞、文化的な文脈をカバーする豊富なキャプションと質問応答ペアを生成する。
MF-Thinkは音楽理論に基づく新しいチェーン・オブ・シンク・データセットで、続いてGRPOベースの強化学習とカスタム報酬を取り入れた。
論文 参考訳(メタデータ) (2025-11-13T13:21:09Z) - MusRec: Zero-Shot Text-to-Music Editing via Rectified Flow and Diffusion Transformers [3.096755173613532]
MusRecは、現実世界の音楽の多様な編集タスクを効率よく効率的に実行できる最初のゼロショットテキスト-音楽編集モデルである。
実験により,本手法は音楽コンテンツ保存,構造的整合性,忠実さの編集において,既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-11-06T14:01:52Z) - Towards an AI Musician: Synthesizing Sheet Music Problems for Musical Reasoning [69.78158549955384]
本稿では,ビートやインターバルをプログラム関数として扱うような,コア音楽理論のルールを扱う新しいアプローチを提案する。
このアプローチは、テキストと視覚の両方で検証可能な楽譜の質問を生成する。
SSMR-Benchの評価結果は,楽譜の解釈における重要な役割を浮き彫りにした。
論文 参考訳(メタデータ) (2025-09-04T09:42:17Z) - Towards Explainable and Interpretable Musical Difficulty Estimation: A Parameter-efficient Approach [49.2787113554916]
音楽コレクションの整理には曲の難易度を推定することが重要である。
シンボリックな音楽表現の難易度推定には説明可能な記述子を用いる。
ピアノレパートリーで評価したアプローチは,平均2乗誤差(MSE)が1.7。
論文 参考訳(メタデータ) (2024-08-01T11:23:42Z) - Instruct-MusicGen: Unlocking Text-to-Music Editing for Music Language Models via Instruction Tuning [24.6866990804501]
Instruct-MusicGenは、事前訓練されたMusicGenモデルを微調整して、効率的に編集命令に従う新しいアプローチである。
注目すべきは、Instruct-MusicGenはオリジナルのMusicGenモデルに8%新しいパラメータを導入し、5Kステップでのみ列車を走らせることだ。
論文 参考訳(メタデータ) (2024-05-28T17:27:20Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - InstructME: An Instruction Guided Music Edit And Remix Framework with
Latent Diffusion Models [42.2977676825086]
本稿では,遅延拡散モデルに基づくインストラクションガイド付き音楽編集・リミックスフレームワークであるInstructMEを開発する。
本フレームワークは,編集前後の一貫性を維持するため,U-Netをマルチスケールアグリゲーションで強化する。
提案手法は, 音質, テキスト関連性, 調和性において, 先行するシステムを大幅に上回っている。
論文 参考訳(メタデータ) (2023-08-28T07:11:42Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Actions Speak Louder than Listening: Evaluating Music Style Transfer
based on Editing Experience [4.986422167919228]
本研究では,音楽生成モデルのユーザによる編集経験を体系的に評価するための編集テストを提案する。
その結果, ベースラインモデルに対する改善は, 編集試験によって定量的に反映できることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T12:20:30Z) - Optical Music Recognition: State of the Art and Major Challenges [0.0]
光音楽認識(OMR)は、楽譜を機械可読形式に変換することを目的としている。
書き起こされたコピーは、ミュージシャンが楽譜の写真を撮って作曲、演奏、編集を行えるようにする。
近年,従来のコンピュータビジョン技術から深層学習手法への移行が進んでいる。
論文 参考訳(メタデータ) (2020-06-14T12:40:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。