論文の概要: RecMind: Large Language Model Powered Agent For Recommendation
- arxiv url: http://arxiv.org/abs/2308.14296v2
- Date: Fri, 23 Feb 2024 21:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 00:41:26.816676
- Title: RecMind: Large Language Model Powered Agent For Recommendation
- Title(参考訳): RecMind:リコメンデーションのための大規模言語モデルパワードエージェント
- Authors: Yancheng Wang, Ziyan Jiang, Zheng Chen, Fan Yang, Yingxue Zhou, Eunah
Cho, Xing Fan, Xiaojiang Huang, Yanbin Lu, Yingzhen Yang
- Abstract要約: RecMindは、ゼロショットパーソナライズされたレコメンデーションを慎重に計画する自律的なレコメンデーションエージェントである。
実験の結果,RecMind は既存のゼロ/フェーショット LLM ベースのレコメンデーションベースライン手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 17.266571611692264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the recommendation system (RS) has advanced significantly through deep
learning, current RS approaches usually train and fine-tune models on
task-specific datasets, limiting their generalizability to new recommendation
tasks and their ability to leverage external knowledge due to model scale and
data size constraints. Thus, we designed an LLM-powered autonomous recommender
agent, RecMind, which is capable of leveraging external knowledge, utilizing
tools with careful planning to provide zero-shot personalized recommendations.
We propose a Self-Inspiring algorithm to improve the planning ability. At each
intermediate step, the LLM self-inspires to consider all previously explored
states to plan for the next step. This mechanism greatly improves the model's
ability to comprehend and utilize historical information in planning for
recommendation. We evaluate RecMind's performance in various recommendation
scenarios. Our experiment shows that RecMind outperforms existing zero/few-shot
LLM-based recommendation baseline methods in various tasks and achieves
comparable performance to a fully trained recommendation model P5.
- Abstract(参考訳): レコメンデーションシステム(RS)はディープラーニングによって大幅に進歩しているが、現在のRSアプローチは通常、タスク固有のデータセット上で訓練と微調整を行い、新しいレコメンデーションタスクへの一般化可能性と、モデルスケールとデータサイズ制約による外部知識を活用する能力を制限する。
そこで我々は、外部知識を活用して、注意深い計画とツールを活用して、ゼロショットパーソナライズされたレコメンデーションを提供するLLM方式の自律推薦エージェントRecMindを設計した。
計画能力を向上させるための自己インスパイアアルゴリズムを提案する。
各中間段階において、LLMは、以前に検討された全ての状態が次の段階に進むことを自覚する。
このメカニズムは、推薦の計画において歴史的情報を理解・活用するモデルの能力を大幅に向上させる。
様々なレコメンデーションシナリオでRecMindのパフォーマンスを評価する。
実験の結果,RecMind は既存のゼロ/フェーショット LLM ベースのレコメンデーションベースライン手法よりも優れた性能を示し,完全に訓練されたレコメンデーションモデル P5 に匹敵する性能を示した。
関連論文リスト
- Enhancing Long-Term Recommendation with Bi-level Learnable Large
Language Model Planning [61.71616513765243]
即時利益と長期関与の両方を考慮に入れた政策を策定するために、計画能力を推薦決定プロセスに組み込むことが不可欠である。
マクロラーニングとマイクロラーニングを階層的な機構で組み合わせたバイレベルLearningable LLM Plannerフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-29T13:49:56Z) - Uncertainty-Aware Explainable Recommendation with Large Language Models [15.229417987212631]
GPT-2のプロンプトとしてユーザおよびアイテム入力のIDベクトルを利用するモデルを開発する。
マルチタスク学習フレームワークには,推薦タスクと説明タスクの両方を最適化するために,共同トレーニング機構が採用されている。
提案手法はYelp, TripAdvisor, Amazon のデータセット上でそれぞれ 1.59 DIV, 0.57 USR, 0.41 FCR を達成する。
論文 参考訳(メタデータ) (2024-01-31T14:06:26Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Evaluating model-based planning and planner amortization for continuous
control [79.49319308600228]
我々は、モデル予測制御(MPC)と学習モデルとモデルフリーポリシー学習を組み合わせたハイブリッドアプローチを採っている。
モデルフリーエージェントは高いDoF制御問題においても強いベースラインであることがわかった。
モデルに基づくプランナを,パフォーマンスを損なうことなく,計画が損なわれるようなポリシーに置き換えることが可能であることを示す。
論文 参考訳(メタデータ) (2021-10-07T12:00:40Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - Developing a Recommendation Benchmark for MLPerf Training and Inference [16.471395965484145]
我々は、Theerferf Training and Inference Suitesの業界関連レコメンデーションベンチマークを定義することを目指している。
本稿では、パーソナライズされたレコメンデーションシステムのための望ましいモデリング戦略を合成する。
我々はレコメンデーションモデルアーキテクチャとデータセットの望ましい特徴を概説する。
論文 参考訳(メタデータ) (2020-03-16T17:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。