論文の概要: How Far Can Pretrained LLMs Go in Symbolic Music? Controlled Comparisons of Supervised and Preference-based Adaptation
- arxiv url: http://arxiv.org/abs/2601.22764v1
- Date: Fri, 30 Jan 2026 09:44:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.358135
- Title: How Far Can Pretrained LLMs Go in Symbolic Music? Controlled Comparisons of Supervised and Preference-based Adaptation
- Title(参考訳): シンボリック・ミュージックにおける事前学習はどこまで可能か?
- Authors: Deepak Kumar, Emmanouil Karystinaios, Gerhard Widmer, Markus Schedl,
- Abstract要約: 音楽は、しばしば言語と顕著な類似点を共有し、象徴的な音楽理解と生成のために事前訓練された大きな言語モデル(LLM)の使用を動機付けている。
本稿では,ABC をベースとした学習と理解のための微調整手法の比較研究を行い,既成の命令付きバックボーンとドメイン適応型を比較検討した。
ドメイン適応と事前情報トレードオフを保存すること、およびシンボリック音楽のドメイン適応を測定するために使われるメトリクスの異なる振る舞いを強調する。
- 参考スコア(独自算出の注目度): 15.849579727945153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music often shares notable parallels with language, motivating the use of pretrained large language models (LLMs) for symbolic music understanding and generation. Despite growing interest, the practical effectiveness of adapting instruction-tuned LLMs to symbolic music remains insufficiently characterized. We present a controlled comparative study of finetuning strategies for ABC-based generation and understanding, comparing an off-the-shelf instruction-tuned backbone to domain-adapted variants and a music-specialized LLM baseline. Across multiple symbolic music corpora and evaluation signals, we provide some insights into adaptation choices for symbolic music applications. We highlight the domain adaptation vs.~preserving prior information tradeoff as well as the distinct behaviour of metrics used to measure the domain adaptation for symbolic music.
- Abstract(参考訳): 音楽は、しばしば言語と顕著な類似点を共有し、象徴的な音楽理解と生成のために事前訓練された大きな言語モデル(LLM)の使用を動機付けている。
関心が高まりつつも、命令調整型LPMを記号音楽に適用する実用的効果は、まだ不十分である。
そこで本研究では,ABCをベースとした学習と理解のための微調整手法の比較研究を行い,既成の教示付きバックボーンをドメイン適応型と音楽特化LPMベースラインと比較した。
複数のシンボリック・ミュージック・コーパスと評価信号にまたがって、シンボリック・ミュージック・アプリケーションの適応選択に関する洞察を提供する。
ドメイン適応との違いを強調します。
先行情報トレードオフの保存と、シンボリック音楽のドメイン適応を測定するために使用されるメトリクスの明確な振る舞い。
関連論文リスト
- ABC-Eval: Benchmarking Large Language Models on Symbolic Music Understanding and Instruction Following [8.668922435342054]
我々は,テキストベースのABC表記スコアの理解と指示追従機能に特化した,最初のオープンソースベンチマークであるABC-Evalを提案する。
10のサブタスクにまたがる1,086のテストサンプルからなり、基本的な音楽構文理解から複雑なシーケンスレベルの推論まで、シナリオをカバーしている。
ABC-Eval 上での7つの最先端 LLM の評価を行い,既存のモデルのシンボリック音楽処理能力に顕著な限界が認められた。
論文 参考訳(メタデータ) (2025-09-27T14:56:20Z) - Towards an AI Musician: Synthesizing Sheet Music Problems for Musical Reasoning [69.78158549955384]
本稿では,ビートやインターバルをプログラム関数として扱うような,コア音楽理論のルールを扱う新しいアプローチを提案する。
このアプローチは、テキストと視覚の両方で検証可能な楽譜の質問を生成する。
SSMR-Benchの評価結果は,楽譜の解釈における重要な役割を浮き彫りにした。
論文 参考訳(メタデータ) (2025-09-04T09:42:17Z) - MUST-RAG: MUSical Text Question Answering with Retrieval Augmented Generation [6.903890310699392]
MusT-RAG - Retrieval Augmented Generation (RAG)に基づく包括的なフレームワーク
MusWikiDBは、検索段階のための音楽特化ベクターデータベースである。
実験の結果,MusT-RAGはLLMの音楽領域適応能力を向上する従来の微調整手法よりも優れていた。
論文 参考訳(メタデータ) (2025-07-31T08:31:05Z) - Large Language Models' Internal Perception of Symbolic Music [3.9901365062418317]
大規模言語モデル(LLM)は、自然言語における文字列間の関係のモデル化に優れている。
本稿では,テキストのプロンプトからシンボリック音楽データを生成することで,LLMが音楽概念をどのように表現するかを検討する。
論文 参考訳(メタデータ) (2025-07-17T05:48:45Z) - LeVo: High-Quality Song Generation with Multi-Preference Alignment [47.965028296133426]
我々はLeLMとMusic Codecで構成される言語モデルベースのフレームワークであるLeVoを紹介する。
LeVoは2種類のトークンを並列にモデリングすることができる。
2つのデコーダのみのトランスフォーマーと、異なるトークンタイプ間の干渉を防ぐためのモジュール拡張トレーニング戦略を採用している。
論文 参考訳(メタデータ) (2025-06-09T07:57:24Z) - Can LLMs "Reason" in Music? An Evaluation of LLMs' Capability of Music Understanding and Generation [31.825105824490464]
シンボリック・ミュージック(英: Symbolic Music)は、言語に似た、離散的な記号で符号化される。
近年,大言語モデル (LLM) を記号的音楽領域に適用する研究が進められている。
本研究は, シンボリック・ミュージック・プロセッシングにおけるLLMの能力と限界について, 徹底的に検討する。
論文 参考訳(メタデータ) (2024-07-31T11:29:46Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - SongComposer: A Large Language Model for Lyric and Melody Generation in Song Composition [82.38021790213752]
SongComposerは、音楽専門の大規模言語モデル(LLM)である。
3つの重要なイノベーションを活用することで、メロディーをLLMに同時に構成する能力を統合する。
歌詞からメロディへの生成、メロディから歌詞への生成、歌の継続、テキストから歌への生成といったタスクにおいて、高度なLLMよりも優れています。
SongComposeは大規模なトレーニング用データセットで、中国語と英語の歌詞とメロディのペアを含む。
論文 参考訳(メタデータ) (2024-02-27T16:15:28Z) - ALCAP: Alignment-Augmented Music Captioner [34.85003676798762]
コントラスト学習により,音声と歌詞のマルチモーダルアライメントを学習する手法を提案する。
これは、音声と歌詞のシナジーを認識し、強調するだけでなく、モデルがより深いモーダルなコヒーレンスを達成するための道を開く。
論文 参考訳(メタデータ) (2022-12-21T10:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。