論文の概要: CompLex: Music Theory Lexicon Constructed by Autonomous Agents for Automatic Music Generation
- arxiv url: http://arxiv.org/abs/2508.19603v1
- Date: Wed, 27 Aug 2025 06:36:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.518345
- Title: CompLex: Music Theory Lexicon Constructed by Autonomous Agents for Automatic Music Generation
- Title(参考訳): CompLex:自動音楽生成のための自律エージェントによる音楽理論辞書の構築
- Authors: Zhejing Hu, Yan Liu, Gong Chen, Bruce X. B. Yu,
- Abstract要約: 本稿では,AIによる楽曲生成作業における包括的音楽理論の活用を目指す。
我々は,37,432項目からなるCompLexというレキシコンを生成する新しい自動音楽レキシコン構築モデルを提案する。
CompLexは、最先端の3つのテキストから音楽への生成モデルに対して、素晴らしいパフォーマンス向上を示している。
- 参考スコア(独自算出の注目度): 12.545590455588856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative artificial intelligence in music has made significant strides, yet it still falls short of the substantial achievements seen in natural language processing, primarily due to the limited availability of music data. Knowledge-informed approaches have been shown to enhance the performance of music generation models, even when only a few pieces of musical knowledge are integrated. This paper seeks to leverage comprehensive music theory in AI-driven music generation tasks, such as algorithmic composition and style transfer, which traditionally require significant manual effort with existing techniques. We introduce a novel automatic music lexicon construction model that generates a lexicon, named CompLex, comprising 37,432 items derived from just 9 manually input category keywords and 5 sentence prompt templates. A new multi-agent algorithm is proposed to automatically detect and mitigate hallucinations. CompLex demonstrates impressive performance improvements across three state-of-the-art text-to-music generation models, encompassing both symbolic and audio-based methods. Furthermore, we evaluate CompLex in terms of completeness, accuracy, non-redundancy, and executability, confirming that it possesses the key characteristics of an effective lexicon.
- Abstract(参考訳): 音楽における生成的人工知能は大きな進歩を遂げているが、音楽データの入手が限られているため、自然言語処理で見られる重要な成果には及ばない。
知識インフォームドアプローチは、数個の音楽知識が統合されていなくても、音楽生成モデルの性能を高めることが示されている。
本稿では,AIによる楽曲生成タスクにおける包括的音楽理論を活用することを目的としている。
そこで我々は,9つの手動入力カテゴリキーワードと5つの文プロンプトテンプレートから37,432項目を抽出した,CompLexというレキシコンを生成する新しい自動音楽レキシコン構築モデルを提案する。
幻覚を自動的に検出・緩和する新しいマルチエージェントアルゴリズムを提案する。
CompLexは、象徴的手法とオーディオベースの方法の両方を含む、最先端の3つのテキストから音楽への生成モデルに対して、印象的なパフォーマンス向上を示す。
さらに,CompLexを完全性,正確性,非冗長性,実行可能性の観点から評価し,有効辞書の鍵となる特徴を有することを確認した。
関連論文リスト
- Evaluation of pretrained language models on music understanding [0.0]
その結果, 言語モデル(LLM)は, 1) アクセシビリティ, 2) 否定をモデル化できないこと, 3) 特定の単語の存在に対する感受性に悩まされていることがわかった。
我々はこれらの特性を三重項に基づく精度として定量化し、階層的オントロジーにおいてラベルの相対的類似性をモデル化する能力を評価した。
比較的高い精度が報告されているにもかかわらず、6つのモデルすべてに矛盾があることは明らかであり、既製のLLMは使用前に音楽に適応する必要があることを示唆している。
論文 参考訳(メタデータ) (2024-09-17T14:44:49Z) - Instruct-MusicGen: Unlocking Text-to-Music Editing for Music Language Models via Instruction Tuning [24.6866990804501]
Instruct-MusicGenは、事前訓練されたMusicGenモデルを微調整して、効率的に編集命令に従う新しいアプローチである。
注目すべきは、Instruct-MusicGenはオリジナルのMusicGenモデルに8%新しいパラメータを導入し、5Kステップでのみ列車を走らせることだ。
論文 参考訳(メタデータ) (2024-05-28T17:27:20Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - MusCaps: Generating Captions for Music Audio [14.335950077921435]
時間的注目のエンコーダデコーダで構成された最初の音楽オーディオキャプションモデルであるMusCapsを紹介します。
本手法は畳み込み型ニューラルネットワークアーキテクチャと繰り返し型ニューラルネットワークアーキテクチャを組み合わせて,音声テキスト入力を共同処理する。
我々のモデルは、分類に基づく音楽記述から脱却し、聴覚と言語の両方の理解を必要とするタスクを組み合わせている。
論文 参考訳(メタデータ) (2021-04-24T16:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。