論文の概要: DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2312.11336v1
- Date: Mon, 18 Dec 2023 16:41:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 19:17:57.709151
- Title: DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation
- Title(参考訳): DRDT:LLMに基づくシーケンスレコメンデーションのためのダイバージェント思考を用いた動的リフレクション
- Authors: Yu Wang, Zhiwei Liu, Jianguo Zhang, Weiran Yao, Shelby Heinecke,
Philip S. Yu
- Abstract要約: 進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
- 参考スコア(独自算出の注目度): 53.62727171363384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of Large Language Models (LLMs) has sparked interest in their
application to sequential recommendation tasks as they can provide supportive
item information. However, due to the inherent complexities of sequential
recommendation, such as sequential patterns across datasets, noise within
sequences, and the temporal evolution of user preferences, existing LLM
reasoning strategies, such as in-context learning and chain-of-thought are not
fully effective. To address these challenges, we introduce a novel reasoning
principle: Dynamic Reflection with Divergent Thinking within a
retriever-reranker framework. Our approach starts with a collaborative
in-context demonstration retriever, which collects sequences exhibiting
collaborative behaviors as in-context examples. Following this, we abstract
high-level user preferences across multiple aspects, providing a more nuanced
understanding of user interests and circumventing the noise within the raw
sequences. The cornerstone of our methodology is dynamic reflection, a process
that emulates human learning through probing, critiquing, and reflecting, using
user feedback to tailor the analysis more effectively to the target user in a
temporal manner. We evaluate our approach on three datasets using six
pre-trained LLMs. The superior performance observed across these models
demonstrates the efficacy of our reasoning strategy, notably achieved without
the need to fine-tune the LLMs. With our principle, we managed to outperform
GPT-Turbo-3.5 on three datasets using 7b models e.g., Vicuna-7b and Openchat-7b
on NDCG@10. This research not only highlights the potential of LLMs in
enhancing sequential recommendation systems but also underscores the importance
of developing tailored reasoning strategies to fully harness their
capabilities.
- Abstract(参考訳): 大規模言語モデル(llm)の台頭は、支援的なアイテム情報を提供するため、逐次レコメンデーションタスクへのアプリケーションへの関心を喚起した。
しかし、データセット間のシーケンシャルなパターンやシーケンス内のノイズ、ユーザの好みの時間的進化といったシーケンシャルなレコメンデーションの複雑さのため、インコンテキスト学習やチェーンオブ思考といった既存のLCM推論戦略は完全には効果がない。
これらの課題に対処するために、リトリバー・リランダ・フレームワーク内でのダイバージェント思考による動的リフレクションという新しい推論原理を導入する。
提案手法は,協調的な動作を示すシーケンスをインコンテキストの例として収集する,協調的なインコンテキストデモ検索から始まる。
これに続いて,複数の側面にわたるハイレベルなユーザの好みを抽象化し,ユーザの興味をより微妙な理解と,生のシーケンス内のノイズを回避する。
提案手法の基盤となるのはダイナミックリフレクション(動的リフレクション)であり,ユーザのフィードバックを用いて,対象ユーザに対して時間的により効率的に分析を調整し,人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
これらのモデルで観察される優れた性能は, LLMを微調整することなく, 我々の推論戦略の有効性を示すものである。
NDCG@10では、Vicuna-7bやOpenchat-7bといった7bモデルを使用して、GPT-Turbo-3.5を3つのデータセットで上回りました。
この研究は、逐次レコメンデーションシステムの強化におけるLLMの可能性を強調するだけでなく、それらの能力を完全に活用するための適切な推論戦略を開発することの重要性を強調する。
関連論文リスト
- Enhancing Sequential Recommendations through Multi-Perspective Reflections and Iteration [16.10791252542592]
シーケンスレコメンデーション(SeqRec)は、ユーザの意図を理解し、協調的なフィルタリング情報を活用することによって、ユーザが対話する次の項目を予測することを目的としている。
大規模言語モデル(LLM)は、プロンプトベース、固定されたリフレクションライブラリ、微調整技術を通じて推奨タスクにおいて大きな可能性を示してきた。
MoREは、明示的な選好、暗黙的な選好、協調的な信号に関するLLMベースのリフレクタを生成するための3つのリフレクタを導入している。
論文 参考訳(メタデータ) (2024-09-10T09:58:55Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - AQA-Bench: An Interactive Benchmark for Evaluating LLMs' Sequential
Reasoning Ability [29.1826948551409]
AQA-Benchは、大規模言語モデルの逐次推論能力を評価するための新しいベンチマークである。
AQA-Benchは,2進探索,深さ優先探索,幅優先探索という3つのアルゴリズムで構築されている。
我々の調査では興味深い発見がいくつか示されている。
論文 参考訳(メタデータ) (2024-02-14T18:59:33Z) - Representation Learning with Large Language Models for Recommendation [34.46344639742642]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Let's reward step by step: Step-Level reward model as the Navigators for
Reasoning [64.27898739929734]
Process-Supervised Reward Model (PRM)は、トレーニングフェーズ中にステップバイステップのフィードバックをLLMに提供する。
LLMの探索経路を最適化するために,PRMからのステップレベルのフィードバックを応用した欲求探索アルゴリズムを提案する。
提案手法の汎用性を探るため,コーディングタスクのステップレベル報酬データセットを自動生成する手法を開発し,コード生成タスクにおける同様の性能向上を観察する。
論文 参考訳(メタデータ) (2023-10-16T05:21:50Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Robust Reinforcement Learning Objectives for Sequential Recommender Systems [7.44049827436013]
我々は、報酬の形で直接ユーザーフィードバックを取り入れ、ユーザのパーソナライズを高めるレコメンデーションシステムを開発する。
RLアルゴリズムを採用することで、政治外のトレーニング、拡張可能なアクションスペース、十分な報酬信号を持つデータセットの不足など、課題が提示される。
これらの課題に対して、より効果的な解決策を提供するための拡張された方法論を導入します。
論文 参考訳(メタデータ) (2023-05-30T08:09:08Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。