論文の概要: RecGPT: Generative Personalized Prompts for Sequential Recommendation via ChatGPT Training Paradigm
- arxiv url: http://arxiv.org/abs/2404.08675v1
- Date: Sat, 6 Apr 2024 12:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-21 19:54:47.235375
- Title: RecGPT: Generative Personalized Prompts for Sequential Recommendation via ChatGPT Training Paradigm
- Title(参考訳): RecGPT:ChatGPTトレーニングパラダイムによるシーケンスレコメンデーションのための生成的パーソナライズされたプロンプト
- Authors: Yabin Zhang, Wenhui Yu, Erhan Zhang, Xu Chen, Lantao Hu, Peng Jiang, Kun Gai,
- Abstract要約: 推薦タスクの項目インデックスレベルに新しいチャットフレームワークを設計する。
モデル部では、逐次レコメンデーションモデルとしてジェネレーティブ・プレトレーニング・トランスフォーマー(GPT)を採用する。
トレーニング部分には、事前学習や微調整を含む2段階のChatGPTパラダイムを採用する。
- 参考スコア(独自算出の注目度): 26.86784413057675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ChatGPT has achieved remarkable success in natural language understanding. Considering that recommendation is indeed a conversation between users and the system with items as words, which has similar underlying pattern with ChatGPT, we design a new chat framework in item index level for the recommendation task. Our novelty mainly contains three parts: model, training and inference. For the model part, we adopt Generative Pre-training Transformer (GPT) as the sequential recommendation model and design a user modular to capture personalized information. For the training part, we adopt the two-stage paradigm of ChatGPT, including pre-training and fine-tuning. In the pre-training stage, we train GPT model by auto-regression. In the fine-tuning stage, we train the model with prompts, which include both the newly-generated results from the model and the user's feedback. For the inference part, we predict several user interests as user representations in an autoregressive manner. For each interest vector, we recall several items with the highest similarity and merge the items recalled by all interest vectors into the final result. We conduct experiments with both offline public datasets and online A/B test to demonstrate the effectiveness of our proposed method.
- Abstract(参考訳): ChatGPTは自然言語理解において顕著な成功を収めた。
ChatGPTと類似したパターンを持つユーザと商品を単語として扱うシステムとの会話を実際に考慮し,提案タスクの項目インデックスレベルに新たなチャットフレームワークを設計する。
私たちのノベルティは、主にモデル、トレーニング、推論の3つの部分を含む。
モデル部分には、逐次レコメンデーションモデルとしてジェネレーティブ・プレトレーニング・トランスフォーマー(GPT)を採用し、パーソナライズされた情報をキャプチャするためのユーザ・モジュールを設計する。
トレーニング部分には、事前学習や微調整を含む2段階のChatGPTパラダイムを採用する。
事前学習の段階では、自動回帰によりGPTモデルを訓練する。
微調整の段階では、モデルから新たに生成された結果とユーザのフィードバックの両方を含むプロンプトでモデルを訓練する。
推測部分には,自己回帰的手法でユーザ表現としていくつかのユーザ関心を予測する。
各興味ベクトルについて、最も類似度が高いいくつかの項目をリコールし、すべての興味ベクトルによってリコールされた項目を最終結果にマージする。
オフラインの公開データセットとオンラインA/Bテストの両方を用いて実験を行い、提案手法の有効性を実証する。
関連論文リスト
- LPT++: Efficient Training on Mixture of Long-tailed Experts [107.78420448806357]
++は3つのコアコンポーネントを統合することで、凍結されたビジョントランスフォーマー(ViT)を強化する。
1つ目は、長い尾のプロンプトと視覚的アダプタを集約して、トレーニング済みのモデルを対象のドメインに適応させる、普遍的な長い尾の適応モジュールである。
2つ目は、長い尾を持つエキスパートフレームワークと、より正確な予測を生成するために、視覚のみと視覚言語(VL)の両方のモデルエキスパートからの信頼度スコアに対する再重み付け係数を適応的に計算するMoEスコアラーの混合である。
論文 参考訳(メタデータ) (2024-09-17T16:19:11Z) - ChatGPT for Conversational Recommendation: Refining Recommendations by
Reprompting with Feedback [1.3654846342364308]
ChatGPTのような大規模言語モデル(LLM)は、使いやすさと、フィードバックに反応しながら様々なタスクに動的に適応する能力によって人気を集めている。
私たちはChatGPTの周囲に厳密なパイプラインを構築し、ユーザーが推薦のためにモデルを現実的に調査する方法をシミュレートします。
本稿では,ChatGPTの推薦における人気バイアスの影響について検討し,その性能をベースラインモデルと比較する。
論文 参考訳(メタデータ) (2024-01-07T23:17:42Z) - TransAct: Transformer-based Realtime User Action Model for
Recommendation at Pinterest [17.247452803197362]
本稿では、PinterestのHomefeedランキングアーキテクチャについて述べる。
本研究では,リアルタイム活動からユーザの短期的嗜好を抽出するシーケンシャルモデルであるTransActを提案する。
本稿では, アブレーション研究の結果, 生産時の課題, オンラインA/B実験の結果について述べる。
論文 参考訳(メタデータ) (2023-05-31T23:45:29Z) - GPT-Sentinel: Distinguishing Human and ChatGPT Generated Content [27.901155229342375]
本稿では,言語モデルを用いたChatGPT生成対人文テキストの検出手法を提案する。
テストデータセットの精度は97%以上で,さまざまな指標から評価した。
論文 参考訳(メタデータ) (2023-05-13T17:12:11Z) - MCP: Self-supervised Pre-training for Personalized Chatbots with
Multi-level Contrastive Sampling [18.40883902610959]
個人化されたチャットボットのための対話履歴からより良い表現を抽出するための自己教師型学習フレームワークを提案する。
具体的には、ユーザダイアログ履歴に隠された教師付き信号を利用するために、対照的なサンプリング手法を適用する。
2つの実世界のデータセットに対する実験結果から,提案したモデルMPPは既存手法と比較して大幅に改善された。
論文 参考訳(メタデータ) (2022-10-17T05:16:23Z) - LPT: Long-tailed Prompt Tuning for Image Classification [178.52948452353834]
凍結事前訓練モデルに複数のトレーニング可能なプロンプトを導入し、長い尾を持つデータに適用する。
フェーズ1では、教師付きプロンプトチューニングを通じて共有プロンプトをトレーニングし、事前訓練されたモデルを所望の長尾領域に適応させる。
フェーズ2では、学習した共有プロンプトをクエリとして使用し、類似したサンプルのグループに対して、マッチした小さなベストセットを選択する。
論文 参考訳(メタデータ) (2022-10-03T15:47:02Z) - Test-Time Prompt Tuning for Zero-Shot Generalization in Vision-Language
Models [107.05966685291067]
テスト時間プロンプトチューニング (TPT) を提案し, 適応的なプロンプトを1つのテストサンプルで学習する。
TPTはCLIPのゼロショットトップ1の精度を平均3.6%改善する。
クロスデータセットの一般化を目に見えないカテゴリで評価する際、PTは追加のトレーニングデータを使用する最先端のアプローチと同等に機能する。
論文 参考訳(メタデータ) (2022-09-15T17:55:11Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - User Memory Reasoning for Conversational Recommendation [68.34475157544246]
本研究では,ユーザの過去の(オフライン)好みと現在の(オンライン)要求を動的に管理する対話レコメンデーションモデルについて検討する。
MGConvRexはユーザメモリ上の人間レベルの推論をキャプチャし、推奨のためにゼロショット(コールドスタート)推論のためにユーザのトレーニング/テストセットを分離する。
論文 参考訳(メタデータ) (2020-05-30T05:29:23Z) - A Tailored Pre-Training Model for Task-Oriented Dialog Generation [60.05269529832447]
タスク指向対話システムのための事前訓練された役割交替言語モデル(PRAL)を提案する。
13個の既存のデータセットをクリーニングすることでタスク指向の対話事前学習データセットを導入する。
その結果,PRALは最先端の手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2020-04-24T09:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。