論文の概要: Unleash the Potential of Long Semantic IDs for Generative Recommendation
- arxiv url: http://arxiv.org/abs/2602.13573v1
- Date: Sat, 14 Feb 2026 03:15:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.21297
- Title: Unleash the Potential of Long Semantic IDs for Generative Recommendation
- Title(参考訳): ジェネレーティブレコメンデーションのためのロングセマンティックIDの可能性について
- Authors: Ming Xia, Zhiqin Zhou, Guoxin Ma, Dongmin Huang,
- Abstract要約: ACERecは、きめ細かいトークン化と効率的なシーケンシャルモデリングのギャップを分離する新しいフレームワークである。
6つの実世界のベンチマークにおいて、最先端のベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 5.6264583086973685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic ID-based generative recommendation represents items as sequences of discrete tokens, but it inherently faces a trade-off between representational expressiveness and computational efficiency. Residual Quantization (RQ)-based approaches restrict semantic IDs to be short to enable tractable sequential modeling, while Optimized Product Quantization (OPQ)-based methods compress long semantic IDs through naive rigid aggregation, inevitably discarding fine-grained semantic information. To resolve this dilemma, we propose ACERec, a novel framework that decouples the granularity gap between fine-grained tokenization and efficient sequential modeling. It employs an Attentive Token Merger to distill long expressive semantic tokens into compact latents and introduces a dedicated Intent Token serving as a dynamic prediction anchor. To capture cohesive user intents, we guide the learning process via a dual-granularity objective, harmonizing fine-grained token prediction with global item-level semantic alignment. Extensive experiments on six real-world benchmarks demonstrate that ACERec consistently outperforms state-of-the-art baselines, achieving an average improvement of 14.40\% in NDCG@10, effectively reconciling semantic expressiveness and computational efficiency.
- Abstract(参考訳): 意味的IDに基づく生成レコメンデーションは、アイテムを離散トークンのシーケンスとして表現するが、本質的には表現表現性と計算効率のトレードオフに直面している。
Residual Quantization(RQ)ベースのアプローチは、抽出可能なシーケンシャルモデリングを可能にするためにセマンティックIDを短く制限する一方、Optimized Product Quantization(OPQ)ベースの手法は、単純な厳密な集約を通じて長いセマンティックIDを圧縮し、必然的にきめ細かなセマンティック情報を破棄する。
このジレンマを解決するために,微細なトークン化と効率的なシーケンシャルモデリングの粒度ギャップを分離する新しいフレームワークであるACERecを提案する。
Attentive Token Mergerを使用して、長い表現力のあるセマンティックトークンをコンパクトな潜水剤に蒸留し、動的予測アンカーとして機能する専用のIntent Tokenを導入する。
密集したユーザ意図を捉えるために,2つの粒度目標を用いて学習プロセスを導出し,粒度の細かいトークン予測とグローバルアイテムレベルのセマンティックアライメントを調和させる。
6つの実世界のベンチマークによる大規模な実験により、ACERecは最先端のベースラインを一貫して上回り、NDCG@10で平均14.40\%の改善を実現し、意味表現性と計算効率を効果的に調整した。
関連論文リスト
- GLASS: A Generative Recommender for Long-sequence Modeling via SID-Tier and Semantic Search [51.44490997013772]
GLASSは、SID-TierとSemantic Searchを通じて、長期的なユーザ関心を生成プロセスに統合する新しいフレームワークである。
GLASSは2つの大規模実世界のデータセットの実験において最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2026-02-05T13:48:33Z) - Rethinking Generative Recommender Tokenizer: Recsys-Native Encoding and Semantic Quantization Beyond LLMs [17.944727019161878]
ReSIDは、情報保存とシーケンシャルな予測可能性の観点から学ぶことを推奨する、原則化されたSIDフレームワークである。
高いシーケンシャルおよびSIDベースの生成ベースラインを平均10%以上上回り、トークン化コストを最大122倍削減する。
論文 参考訳(メタデータ) (2026-02-02T17:00:04Z) - PRISM: Purified Representation and Integrated Semantic Modeling for Generative Sequential Recommendation [28.629759086187352]
本稿では,PRISMとPureified RepresentationとIntegrated Semantic Modelingを組み合わせた新しい生成レコメンデーションフレームワークを提案する。
PRISMは4つの実世界のデータセットで、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2026-01-23T08:50:16Z) - Masked Diffusion for Generative Recommendation [30.8737219110446]
ジェネレーティブレコメンデーション(GR)とセマンティックID(SID)が従来のレコメンデーションアプローチに代わる有望な代替手段として登場した。
そこで我々は,マスク拡散を用いたユーザのSIDシーケンスの確率をモデル化し,学習することを提案する。
提案手法が自己回帰モデルより一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-11-28T09:36:26Z) - Diffusion Generative Recommendation with Continuous Tokens [21.222713476105195]
ContRecは、連続トークンをLLMベースのRecSysにシームレスに統合するフレームワークである。
ContRecは従来型およびSOTA LLMベースのレコメンデータシステムよりも一貫して優れていることを示す。
本研究は,次世代レコメンデーションシステムにおける連続トークン化と生成モデリングの可能性を強調した。
論文 参考訳(メタデータ) (2025-04-16T12:01:03Z) - Enhancing Item Tokenization for Generative Recommendation through Self-Improvement [67.94240423434944]
生成レコメンデーションシステムは大規模言語モデル(LLM)によって駆動される
現在のアイテムトークン化手法には、テキスト記述、数値文字列、離散トークンのシーケンスの使用が含まれる。
自己改善アイテムトークン化手法を提案し,LLMがトレーニングプロセス中に独自のアイテムトークン化を洗練できるようにする。
論文 参考訳(メタデータ) (2024-12-22T21:56:15Z) - Unleash LLMs Potential for Recommendation by Coordinating Twin-Tower Dynamic Semantic Token Generator [60.07198935747619]
動的セマンティック・インデックス・パラダイムを採用した最初の生成型RSであるTTDS(Twin-Tower Dynamic Semantic Recommender)を提案する。
より具体的には、ツイン・トワー・セマンティック・トークン・ジェネレータをLLMベースのレコメンデータに統合する動的知識融合フレームワークを初めて提案する。
提案したTTDSレコメンデータは,平均19.41%のヒットレート,20.84%のNDCG測定値を実現している。
論文 参考訳(メタデータ) (2024-09-14T01:45:04Z) - CART: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine Semantic Modeling [53.97609687516371]
クロスモーダル検索は、異なるモーダルデータの相互作用を通じて、クエリと意味的に関連するインスタンスを検索することを目的としている。
従来のソリューションでは、クエリと候補の間のスコアを明示的に計算するために、シングルトウワーまたはデュアルトウワーのフレームワークを使用している。
粗大なセマンティックモデリングに基づく生成的クロスモーダル検索フレームワーク(CART)を提案する。
論文 参考訳(メタデータ) (2024-06-25T12:47:04Z) - CoST: Contrastive Quantization based Semantic Tokenization for Generative Recommendation [38.97136297977874]
我々は、アイテムの関係と意味情報の両方を利用して意味的トークンを学習する、コントラッシブな量子化に基づく意味的トークン化手法CoSTを提案する。
この結果から,意味的トークン化が生成的推薦性能に与える影響が明らかとなった。
論文 参考訳(メタデータ) (2024-04-23T06:29:48Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。