論文の概要: WeMusic-Agent: Efficient Conversational Music Recommendation via Knowledge Internalization and Agentic Boundary Learning
- arxiv url: http://arxiv.org/abs/2512.16108v1
- Date: Thu, 18 Dec 2025 02:59:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.890402
- Title: WeMusic-Agent: Efficient Conversational Music Recommendation via Knowledge Internalization and Agentic Boundary Learning
- Title(参考訳): WeMusic-Agent:知識内部化とエージェント境界学習による効率的な会話型音楽推薦
- Authors: Wendong Bi, Yirong Mao, Xianglong Liu, Kai Tian, Jian Zhang, Hanjie Wang, Wenhui Que,
- Abstract要約: 本稿では,効率的な対話型音楽レコメンデーションのためのトレーニングフレームワークWeMusic-Agentを提案する。
WeMusic-Agent-M1は,50B音楽関連コーパスの継続事前学習を通じて,幅広い音楽知識を内包するエージェントモデルである。
また,WeChat Listenにおける実世界データに基づくパーソナライズされた音楽レコメンデーションのベンチマークを構築した。
- 参考スコア(独自算出の注目度): 12.737364415781805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized music recommendation in conversational scenarios usually requires a deep understanding of user preferences and nuanced musical context, yet existing methods often struggle with balancing specialized domain knowledge and flexible tool integration. This paper proposes WeMusic-Agent, a training framework for efficient LLM-based conversational music recommendation. By integrating the knowledge internalization and agentic boundary learning, the framework aims to teach the model to intelligently decide when to leverage internalized knowledge and when to call specialized tools (e.g., music retrieval APIs, music recommendation systems). Under this framework, we present WeMusic-Agent-M1, an agentic model that internalizes extensive musical knowledge via continued pretraining on 50B music-related corpus while acquiring the ability to invoke external tools when necessary. Additionally, considering the lack of open-source benchmarks for conversational music recommendation, we also construct a benchmark for personalized music recommendations derived from real-world data in WeChat Listen. This benchmark enables comprehensive evaluation across multiple dimensions, including relevance, personalization, and diversity of the recommendations. Experiments on real-world data demonstrate that WeMusic-Agent achieves significant improvements over existing models.
- Abstract(参考訳): 対話的なシナリオにおけるパーソナライズドミュージックレコメンデーションは、通常、ユーザの好みや微妙な音楽コンテキストを深く理解する必要があるが、既存の手法は、専門的なドメイン知識と柔軟なツール統合のバランスに苦慮することが多い。
本稿では,LLMに基づく効率的な対話型音楽レコメンデーションのためのトレーニングフレームワークWeMusic-Agentを提案する。
このフレームワークは,知識の内在化とエージェント境界学習を統合することで,内在的知識の活用時期や,特定のツール(音楽検索API,音楽レコメンデーションシステムなど)をいつ呼び出すべきかをモデルに教えることを目的としている。
本稿では,50B音楽関連コーパスの事前学習を継続し,必要な時に外部ツールを起動する能力を得たエージェントモデルWeMusic-Agent-M1を提案する。
さらに,対話型音楽レコメンデーションのためのオープンソースのベンチマークが欠如していることを踏まえ,WeChat Listenの実際のデータから得られたパーソナライズされた音楽レコメンデーションのためのベンチマークを構築した。
このベンチマークは、関連性、パーソナライゼーション、レコメンデーションの多様性など、複数の次元にわたる包括的な評価を可能にする。
実世界のデータの実験では、WeMusic-Agentは既存のモデルよりも大幅に改善されている。
関連論文リスト
- TalkPlay-Tools: Conversational Music Recommendation with LLM Tool Calling [20.889365999166813]
本稿では,ツールコールによる楽曲レコメンデーションシステムを提案する。
本システムでは,LLMをユーザ意図を解釈するエンドツーエンドのレコメンデーションシステムとして位置付ける。
この統合ツールコールフレームワークは,さまざまなレコメンデーションシナリオ間での競合性能を実現することを実証する。
論文 参考訳(メタデータ) (2025-10-02T06:08:54Z) - TALKPLAY: Multimodal Music Recommendation with Large Language Models [6.830154140450626]
大規模言語モデル(LLM)を用いたトークン生成問題としてレコメンデーションを再構成する新しいマルチモーダル音楽レコメンデーションシステムTALKPLAYを提案する。
本システムは,コンテキストに関連のある応答を生成しながら,多様なユーザクエリから楽曲を効果的に推薦する。
質的,定量的評価により,TALKPLAYは,推奨性能と会話自然性の両方において,テキストや聴取履歴のみに基づく一助的アプローチを著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-02-19T13:28:20Z) - Towards Leveraging Contrastively Pretrained Neural Audio Embeddings for Recommender Tasks [18.95453617434051]
音楽レコメンデータシステムは、しばしばネットワークベースのモデルを使用して、楽曲、アーティスト、ユーザー間の関係をキャプチャする。
新しい音楽作品やアーティストは、初期情報が不十分なため、コールドスタートの問題に直面することが多い。
これを解決するために、音楽から直接コンテンツベースの情報を抽出し、協調フィルタリングに基づく手法を強化する。
論文 参考訳(メタデータ) (2024-09-13T17:53:06Z) - MusicAgent: An AI Agent for Music Understanding and Generation with
Large Language Models [54.55063772090821]
MusicAgentは、多数の音楽関連ツールと、ユーザの要求に対処するための自律ワークフローを統合している。
このシステムの第一の目的は、AI音楽ツールの複雑さからユーザーを解放し、クリエイティブな側面に集中できるようにすることである。
論文 参考訳(メタデータ) (2023-10-18T13:31:10Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。