論文の概要: MUST-RAG: MUSical Text Question Answering with Retrieval Augmented Generation
- arxiv url: http://arxiv.org/abs/2507.23334v1
- Date: Thu, 31 Jul 2025 08:31:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.318726
- Title: MUST-RAG: MUSical Text Question Answering with Retrieval Augmented Generation
- Title(参考訳): MUST-RAG:検索生成による楽曲質問応答
- Authors: Daeyong Kwon, SeungHeon Doh, Juhan Nam,
- Abstract要約: MusT-RAG - Retrieval Augmented Generation (RAG)に基づく包括的なフレームワーク
MusWikiDBは、検索段階のための音楽特化ベクターデータベースである。
実験の結果,MusT-RAGはLLMの音楽領域適応能力を向上する従来の微調整手法よりも優れていた。
- 参考スコア(独自算出の注目度): 6.903890310699392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Large language models (LLMs) have demonstrated remarkable capabilities across diverse domains. While they exhibit strong zero-shot performance on various tasks, LLMs' effectiveness in music-related applications remains limited due to the relatively small proportion of music-specific knowledge in their training data. To address this limitation, we propose MusT-RAG, a comprehensive framework based on Retrieval Augmented Generation (RAG) to adapt general-purpose LLMs for text-only music question answering (MQA) tasks. RAG is a technique that provides external knowledge to LLMs by retrieving relevant context information when generating answers to questions. To optimize RAG for the music domain, we (1) propose MusWikiDB, a music-specialized vector database for the retrieval stage, and (2) utilizes context information during both inference and fine-tuning processes to effectively transform general-purpose LLMs into music-specific models. Our experiment demonstrates that MusT-RAG significantly outperforms traditional fine-tuning approaches in enhancing LLMs' music domain adaptation capabilities, showing consistent improvements across both in-domain and out-of-domain MQA benchmarks. Additionally, our MusWikiDB proves substantially more effective than general Wikipedia corpora, delivering superior performance and computational efficiency.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、様々な領域にまたがる顕著な能力を示している。
様々なタスクにおいて強いゼロショット性能を示すが、学習データにおける音楽固有の知識の比率が比較的小さいため、LLMの楽曲関連応用における有効性は制限されている。
この制限に対処するために、テキストのみの音楽質問応答(MQA)タスクに汎用LLMを適用するために、検索拡張生成(RAG)に基づく包括的なフレームワークであるMusT-RAGを提案する。
RAGは、質問に対する回答を生成する際に、関連するコンテキスト情報を取得することによって、LCMに外部知識を提供する技術である。
音楽領域のRAGを最適化するために,(1)検索段階における音楽特化ベクトルデータベースであるMusWikiDBを提案し,(2)推論と微調整の両方の過程における文脈情報を用いて,汎用LLMを音楽特化モデルに効果的に変換する。
実験の結果,MusT-RAG は LLM の音楽領域適応能力の向上において従来の微調整手法よりも優れており,ドメイン内および外部のMQA ベンチマークで一貫した改善が見られた。
さらに、我々のMusWikiDBは、一般的なウィキペディアコーパスよりもはるかに効果的であり、優れた性能と計算効率を提供する。
関連論文リスト
- General-Reasoner: Advancing LLM Reasoning Across All Domains [64.70599911897595]
強化学習(RL)は近年,大規模言語モデル(LLM)の推論能力の向上に強い可能性を示している。
本稿では,多分野にわたるLSM推論能力の向上を目的とした,新たなトレーニングパラダイムであるGeneral-Reasonerを提案する。
私たちは一連のモデルをトレーニングし、物理学、化学、金融、電子工学など幅広い分野をカバーする幅広いデータセットでそれらを評価します。
論文 参考訳(メタデータ) (2025-05-20T17:41:33Z) - Invar-RAG: Invariant LLM-aligned Retrieval for Better Generation [43.630437906898635]
Invar-RAGと呼ばれる2段階ファインチューニングアーキテクチャを提案する。
検索段階では、LORAに基づく表現学習を統合してLLMベースの検索器を構築する。
生成段階では、抽出した情報に基づいて回答を生成する際のLCM精度を向上させるための精細調整法が用いられる。
論文 参考訳(メタデータ) (2024-11-11T14:25:37Z) - SimRAG: Self-Improving Retrieval-Augmented Generation for Adapting Large Language Models to Specialized Domains [45.349645606978434]
Retrieval-augmented Generation (RAG) は大規模言語モデル(LLM)の質問応答能力を向上させる
ドメイン適応のための質問応答と質問生成のジョイント機能を備えた自己学習手法であるSimRAGを提案する。
2つのバックボーンサイズと3つのドメインにまたがる11のデータセットの実験は、SimRAGがベースラインを1.2%~8.6%上回ることを示した。
論文 参考訳(メタデータ) (2024-10-23T15:24:16Z) - Domain-Specific Retrieval-Augmented Generation Using Vector Stores, Knowledge Graphs, and Tensor Factorization [7.522493227357079]
大規模言語モデル(LLM)は大規模コーパスで事前訓練されている。
LLMは幻覚、知識の遮断、知識の帰属の欠如に悩まされる。
SMART-SLICはドメイン固有のLLMフレームワークである。
論文 参考訳(メタデータ) (2024-10-03T17:40:55Z) - MemoRAG: Boosting Long Context Processing with Global Memory-Enhanced Retrieval Augmentation [60.04380907045708]
Retrieval-Augmented Generation (RAG)は、この問題に対処するための有望な戦略と考えられている。
我々は,グローバルメモリ拡張検索による新しいRAGフレームワークであるMemoRAGを提案する。
MemoRAGは、様々な長期コンテキスト評価タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-09-09T13:20:31Z) - Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented Generation [128.01050030936028]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。