論文の概要: Fine-grained Semantics Integration for Large Language Model-based Recommendation
- arxiv url: http://arxiv.org/abs/2602.22632v1
- Date: Thu, 26 Feb 2026 05:17:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.539006
- Title: Fine-grained Semantics Integration for Large Language Model-based Recommendation
- Title(参考訳): 大規模言語モデルに基づくレコメンデーションのためのきめ細かいセマンティックス統合
- Authors: Jiawen Feng, Xiaoyu Kong, Leheng Sheng, Bin Wu, Chao Yi, Feifang Yang, Xiang-Rong Sheng, Han Zhu, Xiang Wang, Jiancan Wu, Xiangnan He,
- Abstract要約: token-level Semantics を LLM ベースの Recommender に組み込む TS-Rec を提案する。
具体的には、(1)教師モデルによって抽出されたキーワードの事前学習された埋め込みに平均プーリングを適用してSIDトークンの埋め込みを初期化するSemantic-Aware Embedding Initialization (SA-Init)、(2)SIDシーケンス内の個々のトークンと対応するアイテムクラスタの共有セマンティックセマンティックアライメントを整列するToken-level Semantic Alignment (TS-Align)の2つのキーコンポーネントを含む。
- 参考スコア(独自算出の注目度): 32.85855885749811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Large Language Models (LLMs) have shifted in recommendation systems from the discriminative paradigm to the LLM-based generative paradigm, where the recommender autoregressively generates sequences of semantic identifiers (SIDs) for target items conditioned on historical interaction. While prevalent LLM-based recommenders have demonstrated performance gains by aligning pretrained LLMs between the language space and the SID space, modeling the SID space still faces two fundamental challenges: (1) Semantically Meaningless Initialization: SID tokens are randomly initialized, severing the semantic linkage between the SID space and the pretrained language space at start point, and (2) Coarse-grained Alignment: existing SFT-based alignment tasks primarily focus on item-level optimization, while overlooking the semantics of individual tokens within SID sequences.To address these challenges, we propose TS-Rec, which can integrate Token-level Semantics into LLM-based Recommenders. Specifically, TS-Rec comprises two key components: (1) Semantic-Aware embedding Initialization (SA-Init), which initializes SID token embeddings by applying mean pooling to the pretrained embeddings of keywords extracted by a teacher model; and (2) Token-level Semantic Alignment (TS-Align), which aligns individual tokens within the SID sequence with the shared semantics of the corresponding item clusters. Extensive experiments on two real-world benchmarks demonstrate that TS-Rec consistently outperforms traditional and generative baselines across all standard metrics. The results demonstrate that integrating fine-grained semantic information significantly enhances the performance of LLM-based generative recommenders.
- Abstract(参考訳): 近年のLLM(Large Language Models)の進歩は、識別パラダイムからLLMに基づく生成パラダイムに移行し、リコメンダは歴史的相互作用を前提としたターゲット項目のセマンティック識別子(SID)のシーケンスを自動回帰的に生成する。
1) 意味のない初期化: SIDトークンはランダムに初期化され、開始時点でSID空間と事前訓練された言語空間とのセマンティックリンクが切断される。(2) 粗粒調整: 既存のSFTベースのアライメントタスクは、主にSIDシーケンス内の個々のトークンのセマンティックスを見越しながら、アイテムレベルの最適化に重点を置いている。これらの課題に対処するため、TS-Recを提案する。
具体的には、(1)教師モデルによって抽出されたキーワードの事前学習された埋め込みに平均プーリングを適用してSIDトークンの埋め込みを初期化するSemantic-Aware Embedding Initialization (SA-Init)、(2)SIDシーケンス内の個々のトークンと対応するアイテムクラスタの共有セマンティックセマンティックアライメントを整列するToken-level Semantic Alignment (TS-Align)の2つのキーコンポーネントを含む。
2つの実世界のベンチマークに関する大規模な実験は、TS-Recがすべての標準メトリクスで従来的および生成的ベースラインを一貫して上回っていることを示している。
その結果, 微粒な意味情報の統合は, LLMに基づく生成レコメンデータの性能を著しく向上させることがわかった。
関連論文リスト
- End-to-End Semantic ID Generation for Generative Advertisement Recommendation [33.453121305193434]
生成広告推薦のための統一SID生成フレームワークを提案する。
具体的には、生の広告データからエンドツーエンドで埋め込みとSIDを協調的に最適化する。
実験により、UniSIDは最先端のSID生成方法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2026-02-11T02:38:26Z) - GLASS: A Generative Recommender for Long-sequence Modeling via SID-Tier and Semantic Search [51.44490997013772]
GLASSは、SID-TierとSemantic Searchを通じて、長期的なユーザ関心を生成プロセスに統合する新しいフレームワークである。
GLASSは2つの大規模実世界のデータセットの実験において最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2026-02-05T13:48:33Z) - Rethinking Generative Recommender Tokenizer: Recsys-Native Encoding and Semantic Quantization Beyond LLMs [17.944727019161878]
ReSIDは、情報保存とシーケンシャルな予測可能性の観点から学ぶことを推奨する、原則化されたSIDフレームワークである。
高いシーケンシャルおよびSIDベースの生成ベースラインを平均10%以上上回り、トークン化コストを最大122倍削減する。
論文 参考訳(メタデータ) (2026-02-02T17:00:04Z) - Unleashing the Native Recommendation Potential: LLM-Based Generative Recommendation via Structured Term Identifiers [51.64398574262054]
本稿では,意味的にリッチで標準化されたテキストキーワードの集合として定義された用語ID(TID)を導入し,堅牢な項目識別子として機能する。
本稿では,TIDを中心にした新しいフレームワークGRLMを提案し,項目のメタデータを標準化されたTIDに変換し,統合的インストラクションファインタニングを活用して,用語の内部化とシーケンシャルレコメンデーションを協調的に最適化する。
論文 参考訳(メタデータ) (2026-01-11T07:53:20Z) - RecBase: Generative Foundation Model Pretraining for Zero-Shot Recommendation [78.01030342481246]
RecBaseは、レコメンデーション指向の目的によって事前訓練されたドメインに依存しない基礎モデルである。
アイテムを階層的な概念識別子にエンコードする統一されたアイテムトークンを導入します。
我々のモデルは、ゼロショットおよびクロスドメインレコメンデーションタスクにおいて、LLMのベースラインの最大7Bパラメータのパフォーマンスを一致または超過します。
論文 参考訳(メタデータ) (2025-09-03T08:33:43Z) - Unleash LLMs Potential for Recommendation by Coordinating Twin-Tower Dynamic Semantic Token Generator [60.07198935747619]
動的セマンティック・インデックス・パラダイムを採用した最初の生成型RSであるTTDS(Twin-Tower Dynamic Semantic Recommender)を提案する。
より具体的には、ツイン・トワー・セマンティック・トークン・ジェネレータをLLMベースのレコメンデータに統合する動的知識融合フレームワークを初めて提案する。
提案したTTDSレコメンデータは,平均19.41%のヒットレート,20.84%のNDCG測定値を実現している。
論文 参考訳(メタデータ) (2024-09-14T01:45:04Z) - Learnable Item Tokenization for Generative Recommendation [113.80559032128065]
LETTER (Larnable Tokenizer for generaTivE Recommendation) を提案する。
LETTERは、セマンティック正規化のためのResidual Quantized VAE、協調正規化のためのコントラストアライメント損失、コードの割り当てバイアスを軽減するための多様性損失を組み込んでいる。
論文 参考訳(メタデータ) (2024-05-12T15:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。