論文の概要: GOT4Rec: Graph of Thoughts for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2411.14922v1
- Date: Fri, 22 Nov 2024 13:24:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:03:27.326747
- Title: GOT4Rec: Graph of Thoughts for Sequential Recommendation
- Title(参考訳): GOT4Rec:シークエンシャルレコメンデーションのための考えのグラフ
- Authors: Zewen Long, Liang Wang, Shu Wu, Qiang Liu, Liang Wang,
- Abstract要約: GOT4Recは、思考のグラフ(GoT)のプロンプト戦略を利用するシーケンシャルレコメンデーション手法である。
我々は,ユーザ履歴シーケンスにおいて,短期的関心事,長期的関心事,他ユーザからの協力的情報という3つの重要な情報を識別し,活用する。
実世界のデータセットに対する大規模な実験は、GOT4Recの有効性を示し、既存の最先端ベースラインを上回っていることを示している。
- 参考スコア(独自算出の注目度): 25.03964361177406
- License:
- Abstract: With the advancement of large language models (LLMs), researchers have explored various methods to optimally leverage their comprehension and generation capabilities in sequential recommendation scenarios. However, several challenges persist in this endeavor. Firstly, most existing approaches rely on the input-output prompting paradigm, which can result in irrelevant or inaccurate responses. Secondly, while there have been attempts to enhance LLMs using prompting strategies such as chain-of-thought (CoT), these efforts have not fully harnessed the reasoning abilities of LLMs or effectively captured the multifaceted information contained within user sequences. To address these limitations, we propose GOT4Rec, a sequential recommendation method that utilizes the graph of thoughts (GoT) prompting strategy. Specifically, we identify and utilize three key types of information within user history sequences: short-term interests, long-term interests and collaborative information from other users. Our approach enables LLMs to independently reason and generate recommendations based on these distinct types of information, subsequently aggregating the results within the GoT framework to derive the final recommended items. This method allows LLMs, with enhanced reasoning capabilities, to more effectively consider the diverse information within user sequences, resulting in more accurate recommendations and more comprehensive explanations. Extensive experiments on real-world datasets demonstrate the effectiveness of GOT4Rec, indicating that it outperforms existing state-of-the-art baselines. Our code is available at https://anonymous.4open.science/r/GOT4Rec-ED99.
- Abstract(参考訳): 大規模言語モデル(LLM)の進歩により、研究者は、逐次レコメンデーションシナリオにおいて、その理解と生成能力を最適に活用するための様々な方法を模索してきた。
しかし、この取り組みにはいくつかの課題が残っている。
第一に、既存のほとんどのアプローチはインプット・アウトプット・プロンプト・パラダイムに依存しており、これは無関係または不正確な応答をもたらす可能性がある。
第2に,チェーン・オブ・シント (CoT) のような促進戦略によるLCMの強化の試みがあるが,これらの取り組みはLLMの推論能力を完全に活用したり,ユーザシーケンスに含まれる多面的情報を効果的に取得したりはしていない。
これらの制約に対処するために,思考グラフ(GoT)のプロンプト戦略を利用した逐次レコメンデーション手法であるGOT4Recを提案する。
具体的には,短期的関心事,長期的関心事,他ユーザからの協力的情報という,ユーザ履歴シーケンス内の3つの重要な情報を識別し,活用する。
当社のアプローチでは,LSMが独立してこれらの異なるタイプの情報に基づいてレコメンデーションを生成し,その結果をGoTフレームワーク内で集約し,最終推奨項目を導出する。
この方法により、LLMは推論能力が向上し、ユーザシーケンス内の多様な情報をより効果的に検討し、より正確なレコメンデーションとより包括的な説明が可能になる。
実世界のデータセットに対する大規模な実験は、GOT4Recの有効性を示し、既存の最先端ベースラインを上回っていることを示している。
私たちのコードはhttps://anonymous.4open.science/r/GOT4Rec-ED99で公開されています。
関連論文リスト
- Large Language Models as Narrative-Driven Recommenders [0.051205673783866146]
大規模言語モデル(LLM)は、一般的な自然言語クエリの処理に優れていることが示されている。
映画レコメンデーション設定において,38個のオープンソース LLM とクローズドソース LLM のパフォーマンスを比較した。
以上の結果から,LLMがコンテキストに関連のある映画レコメンデーションを生成できることが示唆された。
論文 参考訳(メタデータ) (2024-10-17T14:39:24Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Improving Sequential Recommendations with LLMs [8.819438328085925]
大規模言語モデル(LLM)は、シーケンシャルなレコメンデーションアプローチの構築や改善に使用することができる。
我々は3つのデータセットについて広範囲に実験を行い、それぞれのアプローチの性能を網羅した画像を得る。
論文 参考訳(メタデータ) (2024-02-02T11:52:07Z) - Uncertainty-Aware Explainable Recommendation with Large Language Models [15.229417987212631]
GPT-2のプロンプトとしてユーザおよびアイテム入力のIDベクトルを利用するモデルを開発する。
マルチタスク学習フレームワークには,推薦タスクと説明タスクの両方を最適化するために,共同トレーニング機構が採用されている。
提案手法はYelp, TripAdvisor, Amazon のデータセット上でそれぞれ 1.59 DIV, 0.57 USR, 0.41 FCR を達成する。
論文 参考訳(メタデータ) (2024-01-31T14:06:26Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - LlamaRec: Two-Stage Recommendation using Large Language Models for
Ranking [10.671747198171136]
ランキングベースレコメンデーション(LlamaRec)のための大規模言語モデルを用いた2段階フレームワークを提案する。
特に,ユーザインタラクション履歴に基づいて候補を検索するために,小規模なシーケンシャルレコメンデータを用いる。
LlamaRecは、推奨パフォーマンスと効率の両方において、データセットの優れたパフォーマンスを一貫して達成している。
論文 参考訳(メタデータ) (2023-10-25T06:23:48Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。