論文の概要: Pctx: Tokenizing Personalized Context for Generative Recommendation
- arxiv url: http://arxiv.org/abs/2510.21276v1
- Date: Fri, 24 Oct 2025 09:22:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.424254
- Title: Pctx: Tokenizing Personalized Context for Generative Recommendation
- Title(参考訳): Pctx:ジェネレーティブレコメンデーションのためのパーソナライズされたコンテキストの学習
- Authors: Qiyong Zhong, Jiajie Su, Yunshan Ma, Julian McAuley, Yupeng Hou,
- Abstract要約: 生成レコメンデーション(GR)モデルは、各アクションをいくつかの個別トークン(セマンティックIDと呼ばれる)にトークン化し、予測として次のトークンを自動回帰的に生成する。
既存のトークン化メソッドは静的で個人化されていない。
セマンティックIDを生成する際に,ユーザの過去のインタラクションを取り入れたパーソナライズされたコンテキスト認識トークンを提案する。
- 参考スコア(独自算出の注目度): 27.81918228020653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative recommendation (GR) models tokenize each action into a few discrete tokens (called semantic IDs) and autoregressively generate the next tokens as predictions, showing advantages such as memory efficiency, scalability, and the potential to unify retrieval and ranking. Despite these benefits, existing tokenization methods are static and non-personalized. They typically derive semantic IDs solely from item features, assuming a universal item similarity that overlooks user-specific perspectives. However, under the autoregressive paradigm, semantic IDs with the same prefixes always receive similar probabilities, so a single fixed mapping implicitly enforces a universal item similarity standard across all users. In practice, the same item may be interpreted differently depending on user intentions and preferences. To address this issue, we propose a personalized context-aware tokenizer that incorporates a user's historical interactions when generating semantic IDs. This design allows the same item to be tokenized into different semantic IDs under different user contexts, enabling GR models to capture multiple interpretive standards and produce more personalized predictions. Experiments on three public datasets demonstrate up to 11.44% improvement in NDCG@10 over non-personalized action tokenization baselines. Our code is available at https://github.com/YoungZ365/Pctx.
- Abstract(参考訳): 生成レコメンデーション(GR)モデルは、各アクションをいくつかの離散トークン(セマンティックIDと呼ばれる)にトークン化し、次のトークンを予測として自動回帰的に生成する。
これらの利点にもかかわらず、既存のトークン化メソッドは静的で個人化されていない。
それらは通常、ユーザー固有の視点を見渡す普遍的なアイテム類似性を仮定して、アイテムの特徴のみから意味IDを導き出す。
しかし、自己回帰的パラダイムの下では、同じ接頭辞を持つセマンティックIDは、常に同様の確率を受けるため、単一の固定マッピングが暗黙的に全ユーザに対して普遍的なアイテム類似性標準を強制する。
実際には、同じ項目はユーザーの意図や好みによって異なる解釈をすることができる。
この問題に対処するため,セマンティックIDを生成する際に,ユーザの過去のインタラクションを取り入れたパーソナライズされたコンテキスト認識トークンを提案する。
この設計により、同じアイテムを異なるユーザコンテキスト下で異なるセマンティックIDにトークン化することができ、GRモデルは複数の解釈基準をキャプチャし、よりパーソナライズされた予測を生成することができる。
3つの公開データセットの実験では、個人化されていないアクショントークン化ベースラインよりも、NDCG@10が最大11.44%改善されている。
私たちのコードはhttps://github.com/YoungZ365/Pctx.comから入手可能です。
関連論文リスト
- Generating Long Semantic IDs in Parallel for Recommendation [29.97624755406803]
セマンティックIDベースのリコメンデーションのための軽量フレームワークであるRPGを提案する。
我々は、マルチトークン予測損失を用いて、各トークンを独立して予測するようにモデルを訓練する。
実験の結果、セマンティックIDの長さを64にスケールアップすることで、RPGは生成ベースラインを上回ります。
論文 参考訳(メタデータ) (2025-06-06T06:20:37Z) - Pre-training Generative Recommender with Multi-Identifier Item Tokenization [78.87007819266957]
本稿では, MTGRecを用いて, 生成Recommender事前学習のためのトークンシーケンスデータを拡張する手法を提案する。
このアプローチには、マルチアイデンティティーアイテムトークン化とカリキュラムレコメンデータ事前トレーニングという、2つの重要なイノベーションがあります。
3つの公開ベンチマークデータセットに対する大規模な実験は、MTGRecが従来の推奨基準と生成推奨基準の両方を大きく上回っていることを示している。
論文 参考訳(メタデータ) (2025-04-06T08:03:03Z) - Unified Semantic and ID Representation Learning for Deep Recommenders [28.709935854073535]
統一意味・ID表現学習フレームワークを提案する。
我々のフレームワークでは、IDトークンはユニークなアイテム属性をキャプチャし、セマンティックトークンは共有可能な、転送可能な特性を表す。
本フレームワークは,先行層におけるコサイン類似性と最終層におけるユークリッド距離を統合し,表現学習を最適化する。
論文 参考訳(メタデータ) (2025-02-23T07:17:28Z) - ActionPiece: Contextually Tokenizing Action Sequences for Generative Recommendation [43.597904136597876]
我々はアクションシーケンスをトークン化するときにコンテキストを明示的に組み込むActionPieceを提案する。
特徴パターンを新しいトークンとしてマージし,その共起頻度に基づいて語彙を構築する。
特徴集合の非順序性を考えると、さらに集合置換正則化を導入する。
論文 参考訳(メタデータ) (2025-02-19T09:45:29Z) - Order-agnostic Identifier for Large Language Model-based Generative Recommendation [94.37662915542603]
アイテムは、ユーザ履歴をエンコードし、次のアイテムを生成するために、LLM(Large Language Models)の識別子に割り当てられる。
既存のアプローチでは、トークンシーケンス識別子を使用して、アイテムを個別のトークンシーケンスとして表現するか、IDまたはセマンティック埋め込みを使用して単一トークン識別子を使用する。
本稿では,セマンティック・トークンライザを利用するSETRecを提案する。
論文 参考訳(メタデータ) (2025-02-15T15:25:38Z) - Learning Multi-Aspect Item Palette: A Semantic Tokenization Framework for Generative Recommendation [55.99632509895994]
マルチアスペクトセマンティックトークン化のための新しいアプローチであるLAMIAを紹介する。
単一の埋め込みを使用するRQ-VAEとは異なり、LAMIAは独立的でセマンティックな並列な埋め込みの集合である「アイテムパレット」を学習する。
その結果,提案手法よりも提案手法の精度が大幅に向上した。
論文 参考訳(メタデータ) (2024-09-11T13:49:48Z) - Topology-aware Debiased Self-supervised Graph Learning for
Recommendation [6.893289671937124]
本稿では,TDGL(Topology-aware De Self-supervised Graph Learning)を提案する。
TDSGLはユーザ間の意味的類似性(items)に応じてコントラッシブなペアを構成する
その結果,提案モデルが3つの公開データセット上で,最先端モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-10-24T14:16:19Z) - Better Generalization with Semantic IDs: A Case Study in Ranking for Recommendations [24.952222114424146]
本稿では、ランダムIDの代替としてコンテンツ由来の特徴を用いることを提案する。
我々は、ID機能をコンテンツベースの埋め込みに置き換えるだけで、記憶能力の低下により品質が低下することを示した。
コンテンツ埋め込みと同様に、セマンティックIDのコンパクトさはレコメンデーションモデルにおいて容易に適応できる問題を引き起こす。
論文 参考訳(メタデータ) (2023-06-13T20:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。