論文の概要: CoRAL: Collaborative Retrieval-Augmented Large Language Models Improve
Long-tail Recommendation
- arxiv url: http://arxiv.org/abs/2403.06447v1
- Date: Mon, 11 Mar 2024 05:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:11:52.993033
- Title: CoRAL: Collaborative Retrieval-Augmented Large Language Models Improve
Long-tail Recommendation
- Title(参考訳): Coral: 長期推奨を改善する共同検索強化大規模言語モデル
- Authors: Junda Wu, Cheng-Chun Chang, Tong Yu, Zhankui He, Jianing Wang, Yupeng
Hou, Julian McAuley
- Abstract要約: 我々は,協調的な証拠を直接プロンプトに組み込む共同検索強化型LLM,CoRALを紹介した。
LLMは、ユーザ間の共有や個別の好みを分析し、特定のアイテムにどのタイプのユーザが惹かれるかを示すパターンを要約することができる。
実験の結果,コラルは特定のレコメンデーションタスクにおけるLLMの推論能力を大幅に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 34.29410946387975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The long-tail recommendation is a challenging task for traditional
recommender systems, due to data sparsity and data imbalance issues. The recent
development of large language models (LLMs) has shown their abilities in
complex reasoning, which can help to deduce users' preferences based on very
few previous interactions. However, since most LLM-based systems rely on items'
semantic meaning as the sole evidence for reasoning, the collaborative
information of user-item interactions is neglected, which can cause the LLM's
reasoning to be misaligned with task-specific collaborative information of the
dataset. To further align LLMs' reasoning to task-specific user-item
interaction knowledge, we introduce collaborative retrieval-augmented LLMs,
CoRAL, which directly incorporate collaborative evidence into the prompts.
Based on the retrieved user-item interactions, the LLM can analyze shared and
distinct preferences among users, and summarize the patterns indicating which
types of users would be attracted by certain items. The retrieved collaborative
evidence prompts the LLM to align its reasoning with the user-item interaction
patterns in the dataset. However, since the capacity of the input prompt is
limited, finding the minimally-sufficient collaborative information for
recommendation tasks can be challenging. We propose to find the optimal
interaction set through a sequential decision-making process and develop a
retrieval policy learned through a reinforcement learning (RL) framework,
CoRAL. Our experimental results show that CoRAL can significantly improve LLMs'
reasoning abilities on specific recommendation tasks. Our analysis also reveals
that CoRAL can more efficiently explore collaborative information through
reinforcement learning.
- Abstract(参考訳): ロングテールレコメンデーションは、データの分散性とデータ不均衡の問題により、従来のレコメンデーションシステムにとって難しいタスクである。
近年の大規模言語モデル (LLM) の開発により, 複雑な推論能力が示され, ユーザの好みを推定する上で有効であることがわかった。
しかし、ほとんどのLCMベースのシステムは、推論の唯一の証拠としてアイテムの意味を頼りにしているため、ユーザとイテムのインタラクションの協調情報は無視されるため、LCMの推論はデータセットのタスク固有の協調情報と不一致となる可能性がある。
タスク固有のユーザ・イテムインタラクション知識に対するLLMの推論をさらに整合させるため,協調的検索強化型LLMであるCoRALを導入し,協調的エビデンスを直接プロンプトに組み込む。
検索したユーザとイテムのインタラクションに基づいて、LLMはユーザ間の共有や異なる好みを分析し、特定のアイテムにどのタイプのユーザを引き付けるかを示すパターンを要約する。
検索されたコラボレーティブエビデンスにより、LLMは、その推論をデータセット内のユーザとイテムのインタラクションパターンと整合させる。
しかし、入力プロンプトの容量は限られているため、レコメンデーションタスクのための最小限のコラボレーティブ情報を見つけるのは困難である。
本稿では,逐次的意思決定プロセスを通じて設定された最適なインタラクションを見つけ,強化学習(RL)フレームワークであるCoRALを用いて学習した検索ポリシーを開発することを提案する。
実験の結果,コラルは特定のレコメンデーションタスクにおけるLLMの推論能力を大幅に向上させることができることがわかった。
分析の結果、Coralは強化学習によってより効率的に協調情報を探索できることがわかった。
関連論文リスト
- Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Integrating Large Language Models with Graphical Session-Based
Recommendation [8.086277931395212]
LLMGRというグラフィカルなセッションベースレコメンデーションを備えた大規模言語モデルを導入する。
このフレームワークは、SBRタスクのためのLLMとグラフニューラルネットワーク(GNN)を調和して統合することでギャップを埋める。
この統合は、自然言語理解におけるLLMとリレーショナルデータ処理におけるGNNの相補的な強みを活用することを目指している。
論文 参考訳(メタデータ) (2024-02-26T12:55:51Z) - Persona-DB: Efficient Large Language Model Personalization for Response
Prediction with Collaborative Data Refinement [82.56964750522161]
本稿では,タスクコンテキスト間の一般化を改善するため,階層的な構築プロセスからなるシンプルなフレームワークであるPersona-DBを紹介する。
応答予測のタスクでは,Persona-DBは,検索サイズを大幅に削減した精度を維持する上で,優れた効率性を示す。
我々の実験は、ユーザーが極めて少ないデータを持つ場合、コールドスタートシナリオで15%以上の顕著な改善が示されていることも示している。
論文 参考訳(メタデータ) (2024-02-16T20:20:43Z) - An Enhanced Prompt-Based LLM Reasoning Scheme via Knowledge
Graph-Integrated Collaboration [16.054815633190476]
本研究では,知識グラフ(KG)と大規模言語モデル(LLM)の緊密な協調を含む協調学習自由推論手法を提案する。
このような協調的な手法により、より信頼性の高い知識に基づく推論を実現し、推論結果の追跡を容易にする。
論文 参考訳(メタデータ) (2024-02-07T15:56:17Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - Representation Learning with Large Language Models for Recommendation [34.46344639742642]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z) - Enabling Intelligent Interactions between an Agent and an LLM: A
Reinforcement Learning Approach [33.24651276102073]
大規模言語モデル(LLM)は、大量のテキストデータセットから得られた膨大な量の世界の知識を符号化する。
LLMは、高レベルな命令を提供することで、複雑なシーケンシャルな意思決定タスクを解決するための実施エージェントを支援することができる。
本研究では,高レベルの命令に対してLLMを問合せする必要がある場合に学習する強化学習ベースのアプローチである When2Ask を提案する。
論文 参考訳(メタデータ) (2023-06-06T11:49:09Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。