論文の概要: Semantic IDs for Joint Generative Search and Recommendation
- arxiv url: http://arxiv.org/abs/2508.10478v1
- Date: Thu, 14 Aug 2025 09:28:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.255026
- Title: Semantic IDs for Joint Generative Search and Recommendation
- Title(参考訳): 共同生成検索とレコメンデーションのための意味的ID
- Authors: Gustavo Penha, Edoardo D'Amico, Marco De Nadai, Enrico Palumbo, Alexandre Tamborrino, Ali Vardasbi, Max Lefarov, Shawn Lin, Timothy Heath, Francesco Fabbri, Hugues Bouchard,
- Abstract要約: ジェネレーティブモデルは、レコメンデーションと検索の両方をパワーアップするための統一されたソリューションとして登場しつつある。
統一モデルを用いた場合,検索とレコメンデーションの両方でよく機能するセマンティックIDを構築する方法を示す。
- 参考スコア(独自算出の注目度): 39.49814138519702
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative models powered by Large Language Models (LLMs) are emerging as a unified solution for powering both recommendation and search tasks. A key design choice in these models is how to represent items, traditionally through unique identifiers (IDs) and more recently with Semantic IDs composed of discrete codes, obtained from embeddings. While task-specific embedding models can improve performance for individual tasks, they may not generalize well in a joint setting. In this paper, we explore how to construct Semantic IDs that perform well both in search and recommendation when using a unified model. We compare a range of strategies to construct Semantic IDs, looking into task-specific and cross-tasks approaches, and also whether each task should have its own semantic ID tokens in a joint search and recommendation generative model. Our results show that using a bi-encoder model fine-tuned on both search and recommendation tasks to obtain item embeddings, followed by the construction of a unified Semantic ID space provides an effective trade-off, enabling strong performance in both tasks. We hope these findings spark follow-up work on generalisable, semantically grounded ID schemes and inform the next wave of unified generative recommender architectures.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用した生成モデルは、レコメンデーションと検索の両方のタスクを実行する統一的なソリューションとして現れている。
これらのモデルにおける重要な設計選択は、伝統的にユニークな識別子(ID)を通してアイテムを表現する方法であり、最近では埋め込みから得られる個別コードからなるセマンティックIDを用いている。
タスク固有の埋め込みモデルは個々のタスクのパフォーマンスを改善することができるが、共同環境ではうまく一般化できない。
本稿では,統一モデルを用いた場合,検索とレコメンデーションの両方でよく機能するセマンティックIDを構築する方法について検討する。
我々はセマンティックIDを構築するための様々な戦略を比較し、タスク固有およびクロスタスクアプローチを検討し、また、各タスクが共同検索とレコメンデーション生成モデルに独自のセマンティックIDトークンを持つべきかどうかを調べた。
提案手法は,検索タスクとレコメンデーションタスクの両方に微調整されたバイエンコーダモデルを用いてアイテムの埋め込みを行い,続いて統合されたセマンティックID空間を構築することにより,双方のタスクにおいて強力なパフォーマンスを実現することができることを示す。
これらの発見が、汎用的でセマンティックなIDスキームのフォローアップ作業のきっかけとなり、次世代のジェネレーティブレコメンデーションアーキテクチャの波を知らせることを願っている。
関連論文リスト
- Unified Generative Search and Recommendation [14.317849340141919]
我々は、バランスの取れた検索とレコメンデーションのための統一的な生成フレームワークGenSARを紹介する。
提案手法は,2目的識別子を設計し,補完的な信号を組み込んでタスク固有の目的と整合する訓練戦略を設計する。
パブリックデータセットと商用データセットの両方の実験では、GenSARがトレードオフを効果的に削減し、両方のタスクで最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2025-04-08T07:03:08Z) - Order-agnostic Identifier for Large Language Model-based Generative Recommendation [94.37662915542603]
アイテムは、ユーザ履歴をエンコードし、次のアイテムを生成するために、LLM(Large Language Models)の識別子に割り当てられる。
既存のアプローチでは、トークンシーケンス識別子を使用して、アイテムを個別のトークンシーケンスとして表現するか、IDまたはセマンティック埋め込みを使用して単一トークン識別子を使用する。
本稿では,セマンティック・トークンライザを利用するSETRecを提案する。
論文 参考訳(メタデータ) (2025-02-15T15:25:38Z) - Bridging Search and Recommendation in Generative Retrieval: Does One Task Help the Other? [9.215695600542249]
検索とレコメンデーションのための生成的検索は、アイテムを検索する上で有望なパラダイムである。
これらの生成システムは、様々な情報検索タスクを単一のモデルにまとめる上で重要な役割を果たす。
本稿では,このような統合されたアプローチが,IRタスクの検索・推薦においてタスク固有モデルより優れているかどうかを考察する。
論文 参考訳(メタデータ) (2024-10-22T08:49:43Z) - Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。