論文の概要: Differentiable Semantic ID for Generative Recommendation
- arxiv url: http://arxiv.org/abs/2601.19711v1
- Date: Tue, 27 Jan 2026 15:34:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 13:35:05.361747
- Title: Differentiable Semantic ID for Generative Recommendation
- Title(参考訳): ジェネレーティブレコメンデーションのための識別可能なセマンティックID
- Authors: Junchen Fu, Xuri Ge, Alexandros Karatzoglou, Ioannis Arapakis, Suzan Verberne, Joemon M. Jose, Zhaochun Ren,
- Abstract要約: 生成的推薦は、各項目がリッチコンテンツから学習された個別意味ID(SID)によって表現される新しいパラダイムを提供する。
実際には、SIDはレコメンデーションの正確さよりもコンテンツ再構成に最適化されるのが一般的である。
自然なアプローチは、セマンティックインデックスを差別化して、レコメンデーショングラデーションが直接SID学習に影響を与えるようにすることだ。
本稿では,ジェネレーティブレコメンデーションのための効果的な識別可能なセマンティックIDに向けた第一歩として,DIGERを提案する。
- 参考スコア(独自算出の注目度): 65.83703273297492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative recommendation provides a novel paradigm in which each item is represented by a discrete semantic ID (SID) learned from rich content. Most existing methods treat SIDs as predefined and train recommenders under static indexing. In practice, SIDs are typically optimized only for content reconstruction rather than recommendation accuracy. This leads to an objective mismatch: the system optimizes an indexing loss to learn the SID and a recommendation loss for interaction prediction, but because the tokenizer is trained independently, the recommendation loss cannot update it. A natural approach is to make semantic indexing differentiable so that recommendation gradients can directly influence SID learning, but this often causes codebook collapse, where only a few codes are used. We attribute this issue to early deterministic assignments that limit codebook exploration, resulting in imbalance and unstable optimization. In this paper, we propose DIGER (Differentiable Semantic ID for Generative Recommendation), a first step toward effective differentiable semantic IDs for generative recommendation. DIGER introduces Gumbel noise to explicitly encourage early-stage exploration over codes, mitigating codebook collapse and improving code utilization. To balance exploration and convergence, we further design two uncertainty decay strategies that gradually reduce the Gumbel noise, enabling a smooth transition from early exploration to exploitation of learned SIDs. Extensive experiments on multiple public datasets demonstrate consistent improvements from differentiable semantic IDs. These results confirm the effectiveness of aligning indexing and recommendation objectives through differentiable SIDs and highlight differentiable semantic indexing as a promising research direction.
- Abstract(参考訳): 生成的推薦は、各項目がリッチコンテンツから学習された個別意味ID(SID)によって表現される新しいパラダイムを提供する。
既存のほとんどのメソッドは、SIDを事前定義されたものとして扱い、静的インデックス付けの下でレコメンデータをトレーニングする。
実際には、SIDはレコメンデーションの正確さよりもコンテンツ再構成に最適化されるのが一般的である。
システムはSIDを学習するためにインデックス化損失を最適化し、インタラクション予測のためのレコメンデーション損失を最適化するが、トークン化装置は独立して訓練されているため、レコメンデーション損失は更新できない。
自然なアプローチは、セマンティックインデックスを差別化して、レコメンデーショングラデーションがSID学習に直接影響を与えるようにすることだ。
この問題は、コードブックの探索を制限し、不均衡と不安定な最適化をもたらす、早期決定論的割り当てに起因している。
本稿では,DIGER(Differentiable Semantic ID for Generative Recommendation)を提案する。
DIGERはGumbelノイズを導入し、コードに対する初期段階の探索を明示的に奨励し、コードブックの崩壊を緩和し、コード利用を改善する。
探索と収束のバランスをとるために,ガムベルノイズを徐々に低減し,早期探索から学習したSIDの活用へのスムーズな移行を可能にする2つの不確実性崩壊戦略を設計する。
複数の公開データセットに対する大規模な実験は、差別化可能なセマンティックIDから一貫した改善を示している。
これらの結果は、識別可能なSIDを通して、索引付けと推奨目的を整合させることの有効性を確認し、有望な研究方向として、識別可能な意味索引付けを強調した。
関連論文リスト
- UniGRec: Unified Generative Recommendation with Soft Identifiers for End-to-End Optimization [20.538589808672963]
我々は、UniGRecという統合された生成レコメンデーションフレームワークを提案する。
UniGRecは、トレーニングと推論の相違、コードワードの使用によるアイテム識別子の崩壊、協調的な信号不足に対処する。
実世界のデータセットの実験では、UniGRecは最先端のベースラインメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2026-01-24T12:20:29Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - Purely Semantic Indexing for LLM-based Generative Recommendation and Retrieval [28.366331215978445]
非意味トークンを付加することなく、ユニークな意味保存IDを生成するために、純粋に意味インデックスを提案する。
我々は、厳密な最寄りのセントロイド選択を緩和し、2つのモデル非依存アルゴリズムを導入することにより、ユニークなID割り当てを可能にする。
論文 参考訳(メタデータ) (2025-09-19T21:59:55Z) - Exploiting Discriminative Codebook Prior for Autoregressive Image Generation [54.14166700058777]
トークンベースの自己回帰画像生成システムは、まずトークンインデックスのシーケンスをコードブックでトークン化し、次にこれらのシーケンスを自己回帰パラダイムでモデル化する。
自己回帰生成モデルはインデックス値のみに基づいて訓練されるが、豊富なトークン類似性情報を含むコードブックにエンコードされた前者は利用されない。
近年の研究では、トークン上に単純なk平均クラスタリングを行い、コードブックを減らした生成モデルのトレーニングを容易にすることで、これを先に組み込もうとしている。
k-meansの代替として、差別的コードブック先駆者(DCPE)を提案する。
論文 参考訳(メタデータ) (2025-08-14T15:00:00Z) - HiD-VAE: Interpretable Generative Recommendation via Hierarchical and Disentangled Semantic IDs [29.735089231891305]
HiD-VAEは、2つのコアイノベーションを通じて階層的に切り離されたアイテム表現を学ぶ新しいフレームワークである。
第一に、HiD-VAEは階層的に制御された量子化プロセスの先駆者であり、離散コードとマルチレベルアイテムタグを整列する。
第二に、HiD-VAEは表現の絡み合いと戦うために、遅延空間の重なりを直接罰する新しい特異性損失を取り入れている。
論文 参考訳(メタデータ) (2025-08-06T16:45:05Z) - Unleash LLMs Potential for Recommendation by Coordinating Twin-Tower Dynamic Semantic Token Generator [60.07198935747619]
動的セマンティック・インデックス・パラダイムを採用した最初の生成型RSであるTTDS(Twin-Tower Dynamic Semantic Recommender)を提案する。
より具体的には、ツイン・トワー・セマンティック・トークン・ジェネレータをLLMベースのレコメンデータに統合する動的知識融合フレームワークを初めて提案する。
提案したTTDSレコメンデータは,平均19.41%のヒットレート,20.84%のNDCG測定値を実現している。
論文 参考訳(メタデータ) (2024-09-14T01:45:04Z) - Learnable Item Tokenization for Generative Recommendation [113.80559032128065]
LETTER (Larnable Tokenizer for generaTivE Recommendation) を提案する。
LETTERは、セマンティック正規化のためのResidual Quantized VAE、協調正規化のためのコントラストアライメント損失、コードの割り当てバイアスを軽減するための多様性損失を組み込んでいる。
論文 参考訳(メタデータ) (2024-05-12T15:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。