論文の概要: Semantics Meet Signals: Dual Codebook Representationl Learning for Generative Recommendation
- arxiv url: http://arxiv.org/abs/2511.20673v1
- Date: Sat, 15 Nov 2025 05:51:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.3243
- Title: Semantics Meet Signals: Dual Codebook Representationl Learning for Generative Recommendation
- Title(参考訳): Semantics Meet Signals: Dual Codebook Representationl Learning for Generative Recommendation
- Authors: Zheng Hui, Xiaokai Wei, Reza Shirkavand, Chen Wang, Weizhi Zhang, Alejandro Peláez, Michelle Gong,
- Abstract要約: このフレームワークは、協調フィルタリングコードブックとセマンティックコードブックの間に固定トークン予算を割り当てます。
軽量なMoEはCF固有の精度とセマンティックな一般化を動的にバランスさせ、アライメントと客観的な滑らかさは人気スペクトル全体のコヒーレンスを維持する。
パブリックとインダストリアルの両方のスケールのデータセットで実験を行い、FlexCodeが一貫して強力なベースラインを上回ります。
- 参考スコア(独自算出の注目度): 39.88791326869038
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative recommendation has recently emerged as a powerful paradigm that unifies retrieval and generation, representing items as discrete semantic tokens and enabling flexible sequence modeling with autoregressive models. Despite its success, existing approaches rely on a single, uniform codebook to encode all items, overlooking the inherent imbalance between popular items rich in collaborative signals and long-tail items that depend on semantic understanding. We argue that this uniform treatment limits representational efficiency and hinders generalization. To address this, we introduce FlexCode, a popularity-aware framework that adaptively allocates a fixed token budget between a collaborative filtering (CF) codebook and a semantic codebook. A lightweight MoE dynamically balances CF-specific precision and semantic generalization, while an alignment and smoothness objective maintains coherence across the popularity spectrum. We perform experiments on both public and industrial-scale datasets, showing that FlexCode consistently outperform strong baselines. FlexCode provides a new mechanism for token representation in generative recommenders, achieving stronger accuracy and tail robustness, and offering a new perspective on balancing memorization and generalization in token-based recommendation models.
- Abstract(参考訳): 生成レコメンデーションは最近、検索と生成を統一し、アイテムを個別の意味トークンとして表現し、自己回帰モデルによるフレキシブルなシーケンスモデリングを可能にする強力なパラダイムとして登場した。
その成功にもかかわらず、既存のアプローチは、すべてのアイテムをエンコードするための単一の統一されたコードブックに依存しており、コラボレーティブなシグナルに富んだ人気アイテムと、セマンティックな理解に依存したロングテールなアイテムの間に固有の不均衡を見下ろしている。
この一様処理は表現効率を制限し、一般化を妨げていると論じる。
これを解決するためにFlexCodeを紹介します。これは、コラボレーティブ・フィルタリング(CF)コードブックとセマンティック・コードブックの間に固定トークンの予算を適応的に割り当てる人気を意識したフレームワークです。
軽量なMoEはCF固有の精度とセマンティックな一般化を動的にバランスさせ、アライメントと滑らかさの目的は人気スペクトル全体のコヒーレンスを維持する。
パブリックとインダストリアルの両方のスケールのデータセットで実験を行い、FlexCodeが一貫して強力なベースラインを上回ります。
FlexCodeは、生成レコメンデータにおけるトークン表現の新しいメカニズムを提供し、より強力な精度とテールロバスト性を実現し、トークンベースのレコメンデーションモデルにおける記憶と一般化のバランスに関する新しい視点を提供する。
関連論文リスト
- CoFiRec: Coarse-to-Fine Tokenization for Generative Recommendation [55.783414010717074]
CoFiRecは、アイテム情報をセマンティックレベルに分解する新しい生成レコメンデーションフレームワークである。
我々は、CoFiRecが既存の手法より優れており、ジェネレーティブレコメンデーションの新しい視点を提供することを示す。
論文 参考訳(メタデータ) (2025-11-27T18:59:35Z) - IAR2: Improving Autoregressive Visual Generation with Semantic-Detail Associated Token Prediction [77.06211178777939]
IAR2は、階層的なセマンティックディーテール合成プロセスを可能にする高度な自己回帰フレームワークである。
我々は、IAR2が自動回帰画像生成のための新しい最先端技術を設定し、ImageNet上で1.50のFIDを達成することを示す。
論文 参考訳(メタデータ) (2025-10-08T12:08:21Z) - DiscRec: Disentangled Semantic-Collaborative Modeling for Generative Recommendation [33.152693125551785]
生成的レコメンデーションは、アイテム予測を直接生成する強力なパラダイムとして現れています。
現在の手法ではトークン・イテムのミスアライメントとセマンティック・コラボレーティブな信号の絡み合いという2つの重要な課題に直面している。
Disentangled Semantic-Collaborative Signal Modelingを可能にする新しいフレームワークであるDisdisRecを提案する。
論文 参考訳(メタデータ) (2025-06-18T15:53:47Z) - Universal Item Tokenization for Transferable Generative Recommendation [89.42584009980676]
本稿では、転送可能な生成レコメンデーションのためのユニバーサルアイテムトークン化手法であるUTGRecを提案する。
木構造コードブックを考案することにより、コンテンツ表現をアイテムトークン化のための対応するコードに識別する。
生のコンテンツ再構成には、アイテムテキストとイメージを離散表現から再構成するために、デュアルライトウェイトデコーダを用いる。
協調的知識統合においては,共起的アイテムが類似していると仮定し,共起的アライメントと再構築を通じて協調的信号を統合する。
論文 参考訳(メタデータ) (2025-04-06T08:07:49Z) - Boosting Chart-to-Code Generation in MLLM via Dual Preference-Guided Refinement [16.22363384653305]
MLLM(Multimodal Large Language Models)は、きめ細かい視覚解析、正確なコード合成、堅牢なクロスモーダル推論を行う。
本稿では、フィードバック駆動の2つのモダリティ報酬機構と反復的な嗜好学習を組み合わせた2つの嗜好誘導改善フレームワークを提案する。
本フレームワークは汎用MLLMの性能を大幅に向上させ,高品質なプロットコードを生成する。
論文 参考訳(メタデータ) (2025-04-03T07:51:20Z) - Harmonizing Visual Representations for Unified Multimodal Understanding and Generation [53.01486796503091]
我々は,共有MARエンコーダによる理解と生成タスクを調和させる統合自己回帰フレームワークであるemphHarmonを提案する。
HarmonはGenEval、MJHQ30K、WISEベンチマークで最先端の画像生成結果を達成する。
論文 参考訳(メタデータ) (2025-03-27T20:50:38Z) - Universalizing Weak Supervision [18.832796698152492]
ラベルタイプに対して弱い監督を可能にするユニバーサル手法を提案する。
我々は、このテクニックを、ハイパーボリック空間におけるランク付け、回帰、学習を含むWSフレームワークがこれまで取り組まなかった重要な問題に適用する。
論文 参考訳(メタデータ) (2021-12-07T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。