論文の概要: Recommendation as Language Processing (RLP): A Unified Pretrain,
Personalized Prompt & Predict Paradigm (P5)
- arxiv url: http://arxiv.org/abs/2203.13366v1
- Date: Thu, 24 Mar 2022 22:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 11:59:55.621532
- Title: Recommendation as Language Processing (RLP): A Unified Pretrain,
Personalized Prompt & Predict Paradigm (P5)
- Title(参考訳): レコメンデーション・アズ・ランゲージ・プロセッシング(rlp):統一事前学習、パーソナライズされたプロンプト・アンド・予測パラダイム(p5)
- Authors: Shijie Geng, Shuchang Liu, Zuohui Fu, Yingqiang Ge, Yongfeng Zhang
- Abstract要約: 提案手法は,“Pretrain, Personalized Prompt, and Predict Paradigm”(P5)と呼ばれる,フレキシブルで統一されたテキスト・テキスト・テキスト・パラダイムを推奨する。
ユーザ-テムインタラクション、アイテムメタデータ、ユーザレビューなどのすべてのデータは、自然言語シーケンスという共通のフォーマットに変換されます。
P5は事前トレーニング中に同じ言語モデリングの目的で異なるタスクを学習する。
- 参考スコア(独自算出の注目度): 41.57432785137957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For a long period, different recommendation tasks typically require designing
task-specific architectures and training objectives. As a result, it is hard to
transfer the learned knowledge and representations from one task to another,
thus restricting the generalization ability of existing recommendation
approaches, e.g., a sequential recommendation model can hardly be applied or
transferred to a review generation method. To deal with such issues,
considering that language grounding is a powerful medium to describe and
represent various problems or tasks, we present a flexible and unified
text-to-text paradigm called "Pretrain, Personalized Prompt, and Predict
Paradigm" (P5) for recommendation, which unifies various recommendation tasks
in a shared framework. In P5, all data such as user-item interactions, item
metadata, and user reviews are converted to a common format -- natural language
sequences. The rich information from natural language assist P5 to capture
deeper semantics for recommendation. P5 learns different tasks with the same
language modeling objective during pretraining. Thus, it possesses the
potential to serve as the foundation model for downstream recommendation tasks,
allows easy integration with other modalities, and enables instruction-based
recommendation, which will revolutionize the technical form of recommender
system towards unified recommendation engine. With adaptive personalized prompt
for different users, P5 is able to make predictions in a zero-shot or few-shot
manner and largely reduces the necessity for extensive fine-tuning. On several
recommendation benchmarks, we conduct experiments to show the effectiveness of
our generative approach. We will release our prompts and pretrained P5 language
model to help advance future research on Recommendation as Language Processing
(RLP) and Personalized Foundation Models.
- Abstract(参考訳): 長い期間、異なるレコメンデーションタスクは、通常、タスク固有のアーキテクチャとトレーニングの目的を設計する必要がある。
その結果、学習した知識や表現をあるタスクから別のタスクに転送することは困難であり、既存のレコメンデーションアプローチの一般化能力を制限する、例えば、シーケンシャルなレコメンデーションモデルの適用やレビュー生成方法への変換が困難になる。
このような問題に対処するために、言語基盤は様々な問題やタスクを記述し表現するための強力な媒体であると考え、様々な推奨タスクを共有フレームワークで統一する"Pretrain, Personalized Prompt, and Predict Paradigm"(P5)と呼ばれるフレキシブルで統一されたテキスト・テキスト・テキスト・パラダイムを提案する。
p5では、ユーザ-テーマインタラクション、項目メタデータ、ユーザレビューなどのすべてのデータは、共通のフォーマットである自然言語シーケンスに変換される。
自然言語からの豊富な情報はp5を補助し、より深い意味を捉えて推奨する。
P5は事前トレーニング中に同じ言語モデリングの目的で異なるタスクを学習する。
したがって、下流のレコメンデーションタスクの基礎モデルとして機能する可能性があり、他のモダリティとの統合が容易であり、レコメンデーションシステムの技術的な形態を統一レコメンデーションエンジンに変革させるインストラクションベースのレコメンデーションを可能にする。
異なるユーザーに対して適応的なパーソナライズされたプロンプトにより、P5はゼロショットまたは少数ショットの方法で予測を行うことができ、広範囲な微調整の必要性を大幅に減らすことができる。
いくつかの推奨ベンチマークでは,生成的手法の有効性を示す実験を行った。
我々は、rlpとパーソナライズされた基礎モデルに関する今後の研究を進めるために、プロンプトと事前学習したp5言語モデルをリリースする。
関連論文リスト
- A Prompting-Based Representation Learning Method for Recommendation with Large Language Models [2.1161973970603998]
本稿では,Recommender SystemsにおけるLarge Language Models(LLM)の言語能力を高めるために,Prompting-based Representation Learning Method for Recommendation(P4R)を紹介する。
P4Rフレームワークでは、パーソナライズされたアイテムプロファイルを作成するためにLSMプロンプト戦略を利用する。
評価では、P4Rと最先端のRecommenderモデルを比較し、プロンプトベースのプロファイル生成の品質を評価する。
論文 参考訳(メタデータ) (2024-09-25T07:06:14Z) - Reinforced Prompt Personalization for Recommendation with Large Language Models [24.360796133889156]
本稿では,個々のユーザに対して個別のプロンプトをパーソナライズするインスタンスワイドプロンプトの概念を紹介する。
マルチエージェント強化学習(MARL)を用いたプロンプトにおける4つのパターンを最適化するための強化プロンプトパーソナライゼーション(RPP)を提案する。
従来のレコメンデータモデルよりもRCP/RPP+の方が優れていることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-07-24T09:24:49Z) - MetaKP: On-Demand Keyphrase Generation [52.48698290354449]
オンデマンドのキーフレーズ生成は,特定のハイレベルな目標や意図に従うキーフレーズを必要とする新しいパラダイムである。
そこで我々は,4つのデータセット,7500のドキュメント,3760の目標からなる大規模ベンチマークであるMetaKPを紹介した。
ソーシャルメディアからの流行事象検出に応用して,一般のNLP基盤として機能する可能性を示す。
論文 参考訳(メタデータ) (2024-06-28T19:02:59Z) - Reformulating Sequential Recommendation: Learning Dynamic User Interest with Content-enriched Language Modeling [18.297332953450514]
本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
論文 参考訳(メタデータ) (2023-09-19T08:54:47Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - VIP5: Towards Multimodal Foundation Models for Recommendation [47.32368265586631]
本稿では、様々なモダリティとレコメンデーションタスクを統合するためのMFM(Multimodal foundation model)の開発を提案する。
これを実現するために、共有フォーマットで複数のモダリティに対応するために、マルチモーダルパーソナライズされたプロンプトを導入する。
また,P5バックボーンと微調整型軽量アダプタを凍結する基礎モデルのパラメータ効率訓練手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T17:43:46Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - TuringAdvice: A Generative and Dynamic Evaluation of Language Use [90.3029315711237]
言語理解モデルのための新しい課題タスクとデータセットであるTuringAdviceを提案する。
現実の人が現在直面している記述された状況を考えると、モデルは自然言語で有益なアドバイスを生成する必要がある。
実証的な結果は、今日のモデルがTuringAdviceで苦労していることを示している。
論文 参考訳(メタデータ) (2020-04-07T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。