論文の概要: Inductive Generative Recommendation via Retrieval-based Speculation
- arxiv url: http://arxiv.org/abs/2410.02939v1
- Date: Thu, 03 Oct 2024 19:32:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 14:01:55.061680
- Title: Inductive Generative Recommendation via Retrieval-based Speculation
- Title(参考訳): 検索に基づく推論による帰納的生成レコメンデーション
- Authors: Yijie Ding, Yupeng Hou, Jiacheng Li, Julian McAuley,
- Abstract要約: 生成的レコメンデーション(GR)は、アイテムを個別のトークンにトークン化し、次のトークンを予測として自動回帰的に生成することを学ぶ、新たなパラダイムである。
本稿では,プラグイン・アンド・プレイのフレームワークであるSpecGRを提案する。
- 参考スコア(独自算出の注目度): 26.70518822003545
- License:
- Abstract: Generative recommendation (GR) is an emerging paradigm that tokenizes items into discrete tokens and learns to autoregressively generate the next tokens as predictions. Although effective, GR models operate in a transductive setting, meaning they can only generate items seen during training without applying heuristic re-ranking strategies. In this paper, we propose SpecGR, a plug-and-play framework that enables GR models to recommend new items in an inductive setting. SpecGR uses a drafter model with inductive capability to propose candidate items, which may include both existing items and new items. The GR model then acts as a verifier, accepting or rejecting candidates while retaining its strong ranking capabilities. We further introduce the guided re-drafting technique to make the proposed candidates more aligned with the outputs of generative recommendation models, improving the verification efficiency. We consider two variants for drafting: (1) using an auxiliary drafter model for better flexibility, or (2) leveraging the GR model's own encoder for parameter-efficient self-drafting. Extensive experiments on three real-world datasets demonstrate that SpecGR exhibits both strong inductive recommendation ability and the best overall performance among the compared methods. Our code is available at: https://github.com/Jamesding000/SpecGR.
- Abstract(参考訳): 生成的レコメンデーション(GR)は、アイテムを個別のトークンにトークン化し、次のトークンを予測として自動回帰的に生成することを学ぶ、新たなパラダイムである。
GRモデルは効果的ではあるが、トランスダクティブな環境で動作しており、ヒューリスティックな再ランク戦略を適用することなく、トレーニング中に見られるアイテムしか生成できない。
本稿では,プラグイン・アンド・プレイのフレームワークであるSpecGRを提案する。
SpecGRは、既存のアイテムと新しいアイテムの両方を含む可能性のある候補アイテムを提案するために、インダクティブ機能を備えたドラフトモデルを使用する。
GRモデルは検証者として機能し、強力なランキング能力を維持しながら候補を受け入れ、拒否する。
さらに,提案する候補を生成推薦モデルの出力に適合させ,検証効率を向上させるためのガイド付き再描画手法についても紹介する。
筆者らは,(1) 柔軟性向上のための補助ドラフトモデル,(2) パラメータ効率向上のためのGRモデル独自のエンコーダの2つのバリエーションを検討する。
実世界の3つのデータセットに対する大規模な実験により、SpecGRは強力なインダクティブレコメンデーション能力と、比較したメソッドの全体的なパフォーマンスの両方を示します。
私たちのコードは、https://github.com/Jamesding000/SpecGR.comで利用可能です。
関連論文リスト
- One2set + Large Language Model: Best Partners for Keyphrase Generation [42.969689556605005]
キーワード生成(KPG)は、与えられたドキュメントの中核概念を表すフレーズの集合を自動的に生成することを目的としている。
KPGを2つのステップに分解するジェネレータ-then-selectフレームワークを導入し、候補を生成するために12setベースのモデルをジェネレータとして採用し、LLMをセレクタとして使用し、これらの候補からキーフレーズを選択する。
我々のフレームワークは最先端のモデル、特にキーフレーズの欠如をはるかに上回っている。
論文 参考訳(メタデータ) (2024-10-04T13:31:09Z) - Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - GenRec: Generative Sequential Recommendation with Large Language Models [4.381277509913139]
我々はGenerative Recommendation(GenRec)という新しいモデルを提案する。
GenRecは軽量で、低リソース環境で効果的にトレーニングするのに数時間しか必要としない。
我々の実験は、GenRecが様々な公開現実世界のデータセットを一般化することを実証した。
論文 参考訳(メタデータ) (2024-07-30T20:58:36Z) - Distillation Enhanced Generative Retrieval [96.69326099136289]
生成的検索はテキスト検索において有望な新しいパラダイムであり、関連する通路の識別子文字列を検索対象として生成する。
本研究は, 蒸留による生成的検索をさらに促進するための有効な方向を特定し, DGR という名称の実行可能なフレームワークを提案する。
本研究では,4つの公開データセットに対して実験を行い,DGRが生成的検索手法の最先端性能を達成することを示す。
論文 参考訳(メタデータ) (2024-02-16T15:48:24Z) - LightLM: A Lightweight Deep and Narrow Language Model for Generative
Recommendation [45.00339682494516]
LightLMは、生成レコメンデーションのための軽量トランスフォーマーベースの言語モデルである。
LightLMは軽量のディープトランスフォーマーアーキテクチャを導入することでこの問題に対処している。
また,SCI(Spectral Collaborative Indexing)とグラフコラボレーションインデックス(Graph Collaborative Indexing,GCI)という,考案したユーザIDとアイテムIDのインデックス化手法によって,大規模言語モデルよりも高い精度で,より深く狭いトランスフォーマーアーキテクチャを実現することも示す。
論文 参考訳(メタデータ) (2023-10-26T15:44:57Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。