論文の概要: IDGenRec: LLM-RecSys Alignment with Textual ID Learning
- arxiv url: http://arxiv.org/abs/2403.19021v2
- Date: Fri, 17 May 2024 04:05:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 18:12:19.452217
- Title: IDGenRec: LLM-RecSys Alignment with Textual ID Learning
- Title(参考訳): IDGenRec: LLM-RecSysアライメントとテキストID学習
- Authors: Juntao Tan, Shuyuan Xu, Wenyue Hua, Yingqiang Ge, Zelong Li, Yongfeng Zhang,
- Abstract要約: 我々は,各項目を一意で簡潔で,意味的にリッチで,プラットフォームに依存しないテキストIDとして表現するIDGenを提案する。
標準実験条件下では,IDGen が既存のモデルを常に上回り,逐次レコメンデーションすることを示す。
その結果、事前訓練された基礎モデルのゼロショット性能は、従来のレコメンデーションモデルに匹敵するか、それ以上に優れていることが示された。
- 参考スコア(独自算出の注目度): 48.018397048791115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative recommendation based on Large Language Models (LLMs) have transformed the traditional ranking-based recommendation style into a text-to-text generation paradigm. However, in contrast to standard NLP tasks that inherently operate on human vocabulary, current research in generative recommendations struggles to effectively encode recommendation items within the text-to-text framework using concise yet meaningful ID representations. To better align LLMs with recommendation needs, we propose IDGen, representing each item as a unique, concise, semantically rich, platform-agnostic textual ID using human language tokens. This is achieved by training a textual ID generator alongside the LLM-based recommender, enabling seamless integration of personalized recommendations into natural language generation. Notably, as user history is expressed in natural language and decoupled from the original dataset, our approach suggests the potential for a foundational generative recommendation model. Experiments show that our framework consistently surpasses existing models in sequential recommendation under standard experimental setting. Then, we explore the possibility of training a foundation recommendation model with the proposed method on data collected from 19 different datasets and tested its recommendation performance on 6 unseen datasets across different platforms under a completely zero-shot setting. The results show that the zero-shot performance of the pre-trained foundation model is comparable to or even better than some traditional recommendation models based on supervised training, showing the potential of the IDGen paradigm serving as the foundation model for generative recommendation. Code and data are open-sourced at https://github.com/agiresearch/IDGenRec.
- Abstract(参考訳): LLM(Large Language Models)に基づくジェネレーティブレコメンデーション(ジェネレーティブレコメンデーション)は、従来のランキングベースのレコメンデーションスタイルを、テキストからテキストへの生成パラダイムに変換する。
しかしながら、人間の語彙で本質的に機能する標準的なNLPタスクとは対照的に、ジェネレーティブレコメンデーションにおける現在の研究は、簡潔で意味のあるID表現を用いてテキスト・トゥ・テキスト・フレームワーク内のレコメンデーション項目を効果的にエンコードすることに苦労している。
LLMとレコメンデーションのニーズをよりよく整合させるため、人間の言語トークンを用いて、各項目をユニークで簡潔で、意味的にリッチで、プラットフォームに依存しないテキストIDとして表現するIDGenを提案する。
LLMベースのレコメンデーションと一緒にテキストIDジェネレータをトレーニングすることで、パーソナライズされたレコメンデーションを自然言語生成にシームレスに統合することが可能になる。
特に,ユーザ履歴が自然言語で表現され,元のデータセットから切り離されたため,本手法は基本生成推薦モデルの可能性を示している。
実験により、我々のフレームワークは、標準実験環境下での逐次推薦において、既存のモデルを一貫して上回っていることが明らかとなった。
次に、19の異なるデータセットから収集したデータに基づいて、提案手法を用いて財団推薦モデルをトレーニングし、その推奨性能を、全くゼロショット設定で異なるプラットフォームにまたがる6つの未確認データセットで検証する可能性を検討する。
その結果、事前学習した基礎モデルのゼロショット性能は、教師付きトレーニングに基づく従来のレコメンデーションモデルに匹敵するか、さらに優れていることが示され、ジェネレーティブ・レコメンデーションの基盤モデルとして機能するIDGenパラダイムの可能性が示された。
コードとデータはhttps://github.com/agiresearch/IDGenRec.orgで公開されている。
関連論文リスト
- Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.912663905306209]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - STORE: Streamlining Semantic Tokenization and Generative Recommendation with A Single LLM [59.08493154172207]
本稿では,意味的トークン化と生成的レコメンデーションプロセスを合理化する統合フレームワークを提案する。
我々は,意味的トークン化をテキスト・ツー・ケントタスクとして定式化し,生成的推薦をトークン・ツー・ケントタスクとして,トークン・ツー・ケント・コンストラクションタスクとテキスト・ツー・ケント補助タスクで補足する。
これらのタスクはすべて生成的な方法でフレーム化され、単一の大規模言語モデル(LLM)バックボーンを使用してトレーニングされる。
論文 参考訳(メタデータ) (2024-09-11T13:49:48Z) - GenRec: Generative Sequential Recommendation with Large Language Models [4.381277509913139]
我々はGenerative Recommendation(GenRec)という新しいモデルを提案する。
GenRecは軽量で、低リソース環境で効果的にトレーニングするのに数時間しか必要としない。
我々の実験は、GenRecが様々な公開現実世界のデータセットを一般化することを実証した。
論文 参考訳(メタデータ) (2024-07-30T20:58:36Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - How to Index Item IDs for Recommendation Foundation Models [49.425959632372425]
Recommendation foundation modelは、リコメンデーションタスクを自然言語タスクに変換することで、リコメンデーションのために大きな言語モデル(LLM)を利用する。
過剰に長いテキストや幻覚的なレコメンデーションを生成するのを避けるために、LCM互換のアイテムIDを作成することが不可欠である。
本稿では,シーケンシャルインデックス,協調インデックス,セマンティックインデックス(コンテンツベース)インデックス,ハイブリッドインデックスの4つを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:02:37Z) - Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z) - GEMv2: Multilingual NLG Benchmarking in a Single Line of Code [161.1761414080574]
Generation, Evaluation, and Metrics Benchmarkは、データセット、モデル、メトリック開発者のためのモジュラーインフラストラクチャを提供する。
GEMv2は51言語で40のドキュメントデータセットをサポートする。
すべてのデータセットのモデルはオンラインで評価でき、インタラクティブなデータカード作成とレンダリングツールによって、生きたベンチマークに新しいデータセットを簡単に追加できます。
論文 参考訳(メタデータ) (2022-06-22T17:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。