論文の概要: Efficient Item ID Generation for Large-Scale LLM-based Recommendation
- arxiv url: http://arxiv.org/abs/2509.03746v1
- Date: Wed, 03 Sep 2025 22:09:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.987357
- Title: Efficient Item ID Generation for Large-Scale LLM-based Recommendation
- Title(参考訳): LLMに基づく大規模勧告のための効率的な項目ID生成
- Authors: Anushya Subbiah, Vikram Aggarwal, James Pine, Steffen Rendle, Krishna Sayana, Kun Su,
- Abstract要約: 数百万のアイテム識別子(アイテムID)を含む現実世界のアイテムカタログの規模は、大きな課題となっている。
アイテムのシングルトーケン表現とワンステップ復号を可能にする新しいトレーニングと推論の修正を提供する。
- 参考スコア(独自算出の注目度): 9.190153398459062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Integrating product catalogs and user behavior into LLMs can enhance recommendations with broad world knowledge, but the scale of real-world item catalogs, often containing millions of discrete item identifiers (Item IDs), poses a significant challenge. This contrasts with the smaller, tokenized text vocabularies typically used in LLMs. The predominant view within the LLM-based recommendation literature is that it is infeasible to treat item ids as a first class citizen in the LLM and instead some sort of tokenization of an item into multiple tokens is required. However, this creates a key practical bottleneck in serving these models for real-time low-latency applications. Our paper challenges this predominant practice and integrates item ids as first class citizens into the LLM. We provide simple, yet highly effective, novel training and inference modifications that enable single-token representations of items and single-step decoding. Our method shows improvements in recommendation quality (Recall and NDCG) over existing techniques on the Amazon shopping datasets while significantly improving inference efficiency by 5x-14x. Our work offers an efficiency perspective distinct from that of other popular approaches within LLM-based recommendation, potentially inspiring further research and opening up a new direction for integrating IDs into LLMs. Our code is available here https://drive.google.com/file/d/1cUMj37rV0Z1bCWMdhQ6i4q4eTRQLURtC
- Abstract(参考訳): LLMに製品カタログとユーザ行動を統合することで、幅広い世界の知識でレコメンデーションを強化することができるが、数百万のアイテム識別子(アイテムID)を含む実世界のアイテムカタログの規模は、大きな課題となっている。
これは、LLMで一般的に使用される小さなトークン化されたテキスト語彙とは対照的である。
LLMベースのレコメンデーション文献では、LLMにおいてアイテムIDを第一級市民として扱うことは不可能であり、代わりにアイテムを複数のトークンに何らかのトークン化する必要があるという見解が有力である。
しかし、これはこれらのモデルをリアルタイムの低レイテンシアプリケーションに適用する上で、重要な現実的なボトルネックを生み出します。
本稿は、この主な実践に挑戦し、第一級市民としてのアイテムIDをLCMに統合する。
アイテムの単一トーケン表現と単一ステップの復号を可能にする、シンプルで効率的で斬新なトレーニングと推論の修正を提供する。
提案手法は,Amazonのショッピングデータセットにおける既存の手法よりも推奨品質(リコールとNDCG)が向上し,推論効率が5x-14xに向上したことを示す。
我々の研究は、LLMをベースとした他の一般的なアプローチとは異なる効率の観点を提供しており、さらなる研究を刺激し、LLMにIDを統合するための新たな方向性を開く可能性がある。
私たちのコードは、https://drive.google.com/file/d/1cUMj37rV0Z1bCWWQ6i4q4eTRQLURtCで利用可能です。
関連論文リスト
- Efficiency Unleashed: Inference Acceleration for LLM-based Recommender Systems with Speculative Decoding [61.45448947483328]
LLMベースのレコメンダシステム(LASER)の投機的復号化によるロスレス高速化について紹介する。
LASERは、検索効率を高めるためのカスタマイズされた検索プールと、ドラフトトークンの受け入れ率を改善するための緩和検証を備えている。
LASERは公開データセットの3~5倍のスピードアップを実現し、オンラインA/Bテスト中に約67%の計算リソースを節約する。
論文 参考訳(メタデータ) (2024-08-11T02:31:13Z) - TokenRec: Learning to Tokenize ID for LLM-based Generative Recommendation [16.93374578679005]
TokenRecは、大規模言語モデル(LLM)ベースのRecommender Systems(RecSys)のトークン化と検索のための新しいフレームワークである。
我々の戦略であるMasked Vector-Quantized (MQ) Tokenizerは、協調フィルタリングから学んだマスキングされたユーザ/イテム表現を離散トークンに定量化する。
我々の生成的検索パラダイムは,自動回帰復号処理やビーム検索処理の不要さを解消するために,ユーザに対してKドル以上のアイテムを効率的に推奨するように設計されている。
論文 参考訳(メタデータ) (2024-06-15T00:07:44Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - RA-Rec: An Efficient ID Representation Alignment Framework for LLM-based Recommendation [9.606111709136675]
LLMに基づくレコメンデーションのための効率的なID表現フレームワークであるRA-Recを提案する。
RA-Recは最先端のメソッドを大幅に上回り、最大3.0%のHitRate@100の改善を実現している。
論文 参考訳(メタデータ) (2024-02-07T02:14:58Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。