論文の概要: CoVE: Compressed Vocabulary Expansion Makes Better LLM-based Recommender Systems
- arxiv url: http://arxiv.org/abs/2506.19993v1
- Date: Tue, 24 Jun 2025 20:27:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.527072
- Title: CoVE: Compressed Vocabulary Expansion Makes Better LLM-based Recommender Systems
- Title(参考訳): CoVE:圧縮語彙拡張によりLLMベースのレコメンダシステムが改善される
- Authors: Haochen Zhang, Tianyi Zhang, Junze Yin, Oren Gal, Anshumali Shrivastava, Vladimir Braverman,
- Abstract要約: 圧縮語彙拡張(CoVE)と呼ばれる新しいシステムを提案する。
CoVEでは、各項目には拡張語彙内のユニークなIDが割り当てられる。
CoVEは大規模産業用途で実用化されている。
- 参考スコア(独自算出の注目度): 41.45298217272485
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recommender systems play a pivotal role in providing relevant content to users. With the rapid development of large language models (LLMs), researchers have begun utilizing LLMs to build more powerful recommender systems. However, existing approaches that focus on aligning LLMs with recommendation tasks do not fully leverage their sequential information processing capabilities, leading to suboptimal performance. In this paper, we propose a novel system called compressed vocabulary expansion (CoVE). In CoVE, each item is assigned a unique ID within the expanded vocabulary. Our framework effectively capitalizes on sequence understanding abilities of LLMs, significantly enhancing their performance on recommendation tasks. Additionally, we compress the embedding layer, making CoVE practical for large-scale industrial applications. The effectiveness and performance of CoVE are demonstrated through comprehensive experiments on multiple recommendation datasets and comparisons with prior works. Our code can be found at https://github.com/HaochenZhang717/CoVE-official-Repo.
- Abstract(参考訳): レコメンダシステムは、ユーザに対して関連コンテンツを提供する上で重要な役割を担います。
大規模言語モデル(LLM)の急速な開発により、研究者はLLMを利用してより強力なレコメンデーションシステムを構築し始めた。
しかし、LLMとレコメンデーションタスクの整合性を重視した既存のアプローチでは、シーケンシャルな情報処理機能が十分に活用されていないため、準最適性能が得られる。
本稿では,圧縮語彙拡張(CoVE)と呼ばれる新しいシステムを提案する。
CoVEでは、各項目には拡張語彙内のユニークなIDが割り当てられる。
本フレームワークは,LLMのシーケンス理解能力を効果的に活用し,レコメンデーションタスクにおける性能を大幅に向上させる。
さらに, 埋込み層を圧縮し, CoVEを大規模産業用途に活用する。
CoVEの有効性と性能は、複数のレコメンデーションデータセットに関する包括的な実験と、以前の研究との比較を通じて実証される。
私たちのコードはhttps://github.com/HaochenZhang717/CoVE-official-Repoで確認できます。
関連論文リスト
- Teamwork makes the dream work: LLMs-Based Agents for GitHub README.MD Summarization [7.330697128881243]
様々な大規模言語モデル(LLM)のシナジーを増幅するための新しいアプローチとしてメタジェンテを提案する。
メタジェンテ(Metagente)は、特殊エージェント間の評価、フィードバック、協調を通じてシステムを自己最適化する一連のLLMに基づくマルチエージェントフレームワークである。
最も関連するベンチマークであるGitSumと比較して、パフォーマンスの向上は27.63%から60.43%である。
論文 参考訳(メタデータ) (2025-03-13T20:42:39Z) - HLLM: Enhancing Sequential Recommendations via Hierarchical Large Language Models for Item and User Modeling [21.495443162191332]
大規模言語モデル(LLM)は様々な分野で顕著な成功を収めており、いくつかの研究がレコメンデーションシステムにおいてその可能性を探求している。
逐次レコメンデーションシステムを強化するために,新しい階層型大規模言語モデル (HLLM) アーキテクチャを提案する。
HLLMは,項目特徴抽出とユーザ関心モデリングの両方に 7B パラメータを利用する構成で,優れたスケーラビリティを実現している。
論文 参考訳(メタデータ) (2024-09-19T13:03:07Z) - Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Automated Commit Message Generation with Large Language Models: An Empirical Study and Beyond [24.151927600694066]
コミットメッセージ生成(CMG)アプローチは、与えられたコード差分に基づいてコミットメッセージを自動的に生成することを目的としている。
本稿では,Large Language Models (LLMs) を用いて高品質なコミットメッセージの生成にどの程度の期間を費やしてきたかを調べるための,最初の包括的な実験を行う。
論文 参考訳(メタデータ) (2024-04-23T08:24:43Z) - LLMTreeRec: Unleashing the Power of Large Language Models for Cold-Start Recommendations [67.57808826577678]
大規模言語モデル(LLM)は、言語分析タスクとしてレコメンデーションタスクをモデル化し、その膨大なオープンワールド知識に基づいてゼロショット結果を提供する。
しかし、アイテムコーパスの大規模化は、LLMに挑戦し、実際のレコメンデーションシステムにデプロイすることが不可能な、相当量のトークン消費につながる。
LLMレコメンデーションフレームワークLLMTreeRecを導入し、全ての項目をアイテムツリーに構造化し、LLMのアイテム検索の効率を向上させる。
論文 参考訳(メタデータ) (2024-03-31T14:41:49Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。