論文の概要: How to Index Item IDs for Recommendation Foundation Models
- arxiv url: http://arxiv.org/abs/2305.06569v5
- Date: Fri, 22 Sep 2023 16:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 18:54:11.891446
- Title: How to Index Item IDs for Recommendation Foundation Models
- Title(参考訳): 勧告基礎モデルの項目IDの索引付け方法
- Authors: Wenyue Hua, Shuyuan Xu, Yingqiang Ge, Yongfeng Zhang
- Abstract要約: Recommendation foundation modelは、リコメンデーションタスクを自然言語タスクに変換することで、リコメンデーションのために大きな言語モデル(LLM)を利用する。
過度に長いテキストや幻覚的なレコメンデーションを生成するのを避けるために、LCM互換のアイテムIDを作成することが不可欠である。
本稿では,シーケンシャルインデックス,協調インデックス,セマンティックインデックス(コンテンツベース)インデックス,ハイブリッドインデックスの4つを提案する。
- 参考スコア(独自算出の注目度): 49.425959632372425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommendation foundation model utilizes large language models (LLM) for
recommendation by converting recommendation tasks into natural language tasks.
It enables generative recommendation which directly generates the item(s) to
recommend rather than calculating a ranking score for each and every candidate
item in traditional recommendation models, simplifying the recommendation
pipeline from multi-stage filtering to single-stage filtering. To avoid
generating excessively long text and hallucinated recommendation when deciding
which item(s) to recommend, creating LLM-compatible item IDs to uniquely
identify each item is essential for recommendation foundation models. In this
study, we systematically examine the item indexing problem for recommendation
foundation models, using P5 as an example of backbone model. To emphasize the
importance of item indexing, we first discuss the issues of several trivial
item indexing methods, such as independent indexing, title indexing, and random
indexing. We then propose four simple yet effective solutions, including
sequential indexing, collaborative indexing, semantic (content-based) indexing,
and hybrid indexing. Our study highlights the significant influence of item
indexing methods on the performance of LLM-based recommendation, and our
results on real-world datasets validate the effectiveness of our proposed
solutions. The research also demonstrates how recent advances on language
modeling and traditional IR principles such as indexing can help each other for
better learning and inference.
- Abstract(参考訳): Recommendation foundation modelは、リコメンデーションタスクを自然言語タスクに変換することで、リコメンデーションのために大きな言語モデル(LLM)を利用する。
従来のレコメンデーションモデルでは、各候補項目と各候補項目のランキングスコアを計算するのではなく、アイテムを直接生成する生成レコメンデーションを可能にし、マルチステージフィルタリングからシングルステージフィルタリングまでのレコメンデーションパイプラインを簡素化する。
推奨すべき項目を決定する際に、過度に長いテキストや幻覚的なレコメンデーションが発生しないようにし、レコメンデーション基礎モデルにおいて、各項目を一意に識別するためのllm互換アイテムidを作成する。
本研究では,バックボーンモデルの例としてp5を用いた推薦基礎モデルの項目索引化問題を体系的に検討する。
項目インデクシングの重要性を強調するため,まず,独立したインデクシング,タイトルインデクシング,ランダムインデクシングなど,いくつかの自明な項目インデクシング手法の問題について論じる。
次に,シーケンシャルインデクシング,協調インデクシング,セマンティック(コンテンツベース)インデクシング,ハイブリッドインデクシングという,シンプルかつ効果的な4つのソリューションを提案する。
本研究は, LLMに基づくレコメンデーションにおける項目索引付け手法の有意な影響を強調し, 提案手法の有効性を実世界のデータセットで検証した。
この研究はまた、言語モデリングとインデックス化のような従来のir原則の最近の進歩が、学習と推論の改善にどのように役立つかを実証している。
関連論文リスト
- Unleashing the Power of Large Language Models for Group POI Recommendations [39.49785677738477]
Group Point-of-Interest(POI)推奨は、あるグループのユーザの多様な嗜好を満たす次のPOIを予測することを目的としている。
グループPOIレコメンデーションの既存の方法は、チェックインデータからの単一のIDベースの機能に依存している。
文脈認識グループPOIレコメンデーションのためのLarge Language Model(LLM)のパワーを解放するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-20T16:02:14Z) - Generative Retrieval with Few-shot Indexing [32.19543023080197]
トレーニングベースの索引付けには3つの制限がある。高いトレーニングオーバーヘッド、大規模言語モデルのトレーニング済み知識の未使用、動的ドキュメントコーパスへの適応の課題である。
Few-Shot GR は訓練を必要とせず LLM の推進にのみ依存しており、より効率的である。
実験により、Few-Shot GRは、重い訓練を必要とする最先端のGR法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-08-04T22:00:34Z) - Reindex-Then-Adapt: Improving Large Language Models for Conversational Recommendation [50.19602159938368]
大規模言語モデル(LLM)は、会話レコメンデーションシステムに革命をもたらしている。
本稿では,マルチトークンのタイトルを単一トークンに変換するReindex-Then-Adapt(RTA)フレームワークを提案する。
本フレームワークでは,3つの対話推薦データセットの精度向上を実証する。
論文 参考訳(メタデータ) (2024-05-20T15:37:55Z) - MMGRec: Multimodal Generative Recommendation with Transformer Model [81.61896141495144]
MMGRecは、マルチモーダルレコメンデーションに生成パラダイムを導入することを目指している。
まず,階層的な量子化手法であるGraph CF-RQVAEを考案し,各項目にRec-IDを割り当てる。
次に、Transformerベースのレコメンデータをトレーニングし、過去のインタラクションシーケンスに基づいて、ユーザが推奨するアイテムのRec-IDを生成する。
論文 参考訳(メタデータ) (2024-04-25T12:11:27Z) - IDGenRec: LLM-RecSys Alignment with Textual ID Learning [48.018397048791115]
我々は,各項目を一意で簡潔で,意味的にリッチで,プラットフォームに依存しないテキストIDとして表現するIDGenを提案する。
標準実験条件下では,IDGen が既存のモデルを常に上回り,逐次レコメンデーションすることを示す。
その結果、事前訓練された基礎モデルのゼロショット性能は、従来のレコメンデーションモデルに匹敵するか、それ以上に優れていることが示された。
論文 参考訳(メタデータ) (2024-03-27T21:22:37Z) - LIST: Learning to Index Spatio-Textual Data for Embedding based Spatial Keyword Queries [53.843367588870585]
リスト K-kNN 空間キーワードクエリ (TkQ) は、空間的およびテキスト的関連性の両方を考慮したランキング関数に基づくオブジェクトのリストを返す。
効率的かつ効率的な指標、すなわち高品質なラベルの欠如とバランスの取れない結果を構築する上で、大きな課題が2つある。
この2つの課題に対処する新しい擬似ラベル生成手法を開発した。
論文 参考訳(メタデータ) (2024-03-12T05:32:33Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。