論文の概要: RecMind: Large Language Model Powered Agent For Recommendation
- arxiv url: http://arxiv.org/abs/2308.14296v1
- Date: Mon, 28 Aug 2023 04:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 15:44:25.374289
- Title: RecMind: Large Language Model Powered Agent For Recommendation
- Title(参考訳): RecMind:リコメンデーションのための大規模言語モデルパワードエージェント
- Authors: Yancheng Wang, Ziyan Jiang, Zheng Chen, Fan Yang, Yingxue Zhou, Eunah
Cho, Xing Fan, Xiaojiang Huang, Yanbin Lu, Yingzhen Yang
- Abstract要約: RecMindはLarge Language Models (LLM)を利用した自律型推薦エージェントである。
各中間計画段階において、LLMの自己インスピレーションは、以前に検討されたすべての州に次のステップを計画することを検討すべきである。
評価予測,シーケンシャルレコメンデーション,直接レコメンデーション,説明生成,レビュー要約など,様々なレコメンデーションシナリオでRecMindのパフォーマンスを評価する。
- 参考スコア(独自算出の注目度): 17.266571611692264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in instructing Large Language Models (LLMs) to utilize
external tools and execute multi-step plans have significantly enhanced their
ability to solve intricate tasks, ranging from mathematical problems to
creative writing. Yet, there remains a notable gap in studying the capacity of
LLMs in responding to personalized queries such as a recommendation request. To
bridge this gap, we have designed an LLM-powered autonomous recommender agent,
RecMind, which is capable of providing precise personalized recommendations
through careful planning, utilizing tools for obtaining external knowledge, and
leveraging individual data. We propose a novel algorithm, Self-Inspiring, to
improve the planning ability of the LLM agent. At each intermediate planning
step, the LLM 'self-inspires' to consider all previously explored states to
plan for next step. This mechanism greatly improves the model's ability to
comprehend and utilize historical planning information for recommendation. We
evaluate RecMind's performance in various recommendation scenarios, including
rating prediction, sequential recommendation, direct recommendation,
explanation generation, and review summarization. Our experiment shows that
RecMind outperforms existing zero/few-shot LLM-based recommendation methods in
different recommendation tasks and achieves competitive performance to a recent
model P5, which requires fully pre-train for the recommendation tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)に外部ツールの利用と多段階計画の実行を指示する最近の進歩は、数学的問題から創造的記述まで、複雑なタスクを解く能力を大幅に強化した。
しかし、レコメンデーション要求などのパーソナライズされたクエリに応答するLLMの能力について、注目すべきギャップがある。
このギャップを埋めるため,我々は,注意深い計画によるパーソナライズドレコメンデーション,外部知識獲得ツールの利用,個人データの活用が可能な,llmを活用した自律型レコメンデーションエージェントremindを設計した。
LLMエージェントの計画能力を向上させるための新しいアルゴリズムであるSelf-Inspireを提案する。
それぞれの中間計画ステップにおいて、llmは、以前に検討されたすべての州を次のステップに計画することを「自己刺激」する。
このメカニズムは、過去の計画情報を理解し、活用するモデルの能力を大幅に改善する。
評価予測,逐次推薦,直接推薦,説明生成,要約など,さまざまなレコメンデーションシナリオにおけるremindの性能評価を行った。
我々の実験では,RecMind は既存のゼロ/ファウショット LLM ベースのレコメンデーションメソッドを異なるレコメンデーションタスクで上回り,最近のモデル P5 と競合する性能を達成し,レコメンデーションタスクに完全に事前訓練を必要とする。
関連論文リスト
- STAR: A Simple Training-free Approach for Recommendations using Large Language Models [36.18841135511487]
大規模言語モデル(LLM)の最近の進歩は、レコメンデーションシステム(RecSys)タスクに有望な新しいアプローチを提供する。
LLMを利用するフレームワークを提案し、微調整を必要とせずに様々なレコメンデーションタスクに適用できる。
本手法はHits@10のパフォーマンスが23.8%,Toys and Gamesが37.5%,Sports and Outdoorsが1.8%であった。
論文 参考訳(メタデータ) (2024-10-21T19:34:40Z) - RLRF4Rec: Reinforcement Learning from Recsys Feedback for Enhanced Recommendation Reranking [33.54698201942643]
大規模言語モデル(LLM)は、様々な領域で顕著なパフォーマンスを示している。
本稿では,Reinforcement Learning from Recsys Feedback for Enhanced Recommendation Re rankを組み込んだ新しいフレームワークであるRLRF4Recを紹介する。
論文 参考訳(メタデータ) (2024-10-08T11:42:37Z) - Finetuning Large Language Model for Personalized Ranking [12.16551080986962]
大規模言語モデル(LLM)は、様々な領域で顕著なパフォーマンスを示している。
DMPO(Direct Multi-Preference Optimization)は、リコメンデーションタスクのギャップを埋め、LLMのアライメントを強化するために設計されたフレームワークである。
論文 参考訳(メタデータ) (2024-05-25T08:36:15Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Large Language Models are Learnable Planners for Long-Term Recommendation [59.167795967630305]
即時利益と長期利益の両方の計画が、勧告においてますます重要になる。
既存手法では,長期的推薦に対する累積報酬を最大化することにより,計画能力の学習に強化学習を適用している。
本稿では,長期的推薦のために,大規模言語モデルのスパースデータよりも優れた計画能力を活用することを提案する。
論文 参考訳(メタデータ) (2024-02-29T13:49:56Z) - Uncertainty-Aware Explainable Recommendation with Large Language Models [15.229417987212631]
GPT-2のプロンプトとしてユーザおよびアイテム入力のIDベクトルを利用するモデルを開発する。
マルチタスク学習フレームワークには,推薦タスクと説明タスクの両方を最適化するために,共同トレーニング機構が採用されている。
提案手法はYelp, TripAdvisor, Amazon のデータセット上でそれぞれ 1.59 DIV, 0.57 USR, 0.41 FCR を達成する。
論文 参考訳(メタデータ) (2024-01-31T14:06:26Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Evaluating model-based planning and planner amortization for continuous
control [79.49319308600228]
我々は、モデル予測制御(MPC)と学習モデルとモデルフリーポリシー学習を組み合わせたハイブリッドアプローチを採っている。
モデルフリーエージェントは高いDoF制御問題においても強いベースラインであることがわかった。
モデルに基づくプランナを,パフォーマンスを損なうことなく,計画が損なわれるようなポリシーに置き換えることが可能であることを示す。
論文 参考訳(メタデータ) (2021-10-07T12:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。