論文の概要: LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2412.12464v1
- Date: Tue, 17 Dec 2024 01:52:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:56:43.372464
- Title: LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation
- Title(参考訳): LLM is Knowledge Graph Reasoner: LLM's Intuition-Aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation
- Authors: Keigo Sakurai, Ren Togo, Takahiro Ogawa, Miki Haseyama,
- Abstract要約: 大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
- 参考スコア(独自算出の注目度): 47.34949656215159
- License:
- Abstract: Knowledge Graphs (KGs) represent relationships between entities in a graph structure and have been widely studied as promising tools for realizing recommendations that consider the accurate content information of items. However, traditional KG-based recommendation methods face fundamental challenges: insufficient consideration of temporal information and poor performance in cold-start scenarios. On the other hand, Large Language Models (LLMs) can be considered databases with a wealth of knowledge learned from the web data, and they have recently gained attention due to their potential application as recommendation systems. Although approaches that treat LLMs as recommendation systems can leverage LLMs' high recommendation literacy, their input token limitations make it impractical to consider the entire recommendation domain dataset and result in scalability issues. To address these challenges, we propose a LLM's Intuition-aware Knowledge graph Reasoning model (LIKR). Our main idea is to treat LLMs as reasoners that output intuitive exploration strategies for KGs. To integrate the knowledge of LLMs and KGs, we trained a recommendation agent through reinforcement learning using a reward function that integrates different recommendation strategies, including LLM's intuition and KG embeddings. By incorporating temporal awareness through prompt engineering and generating textual representations of user preferences from limited interactions, LIKR can improve recommendation performance in cold-start scenarios. Furthermore, LIKR can avoid scalability issues by using KGs to represent recommendation domain datasets and limiting the LLM's output to KG exploration strategies. Experiments on real-world datasets demonstrate that our model outperforms state-of-the-art recommendation methods in cold-start sequential recommendation scenarios.
- Abstract(参考訳): 知識グラフ(KG)は、グラフ構造内のエンティティ間の関係を表現し、アイテムの正確な内容情報を考慮したレコメンデーションを実現するための有望なツールとして広く研究されている。
しかし、従来のKGベースのレコメンデーション手法は、時間的情報の不十分な考慮と、コールドスタートシナリオにおけるパフォーマンスの低下という、根本的な課題に直面している。
一方,Large Language Models (LLM) はWebデータから学習した豊富な知識を持つデータベースと見なすことができ,リコメンデーションシステムとしての可能性から近年注目を集めている。
LLMをレコメンデーションシステムとして扱うアプローチは、LLMの高レコメンデーションリテラシーを活用することができるが、その入力トークン制限により、レコメンデーションドメインデータセット全体を考慮し、スケーラビリティの問題を引き起こすことは不可能である。
これらの課題に対処するため,LLMの知識グラフ推論モデル(LIKR)を提案する。
我々の基本的な考え方は、LLMをKGの直感的な探索戦略を出力する推論子として扱うことである。
LLMとKGの知識を統合するために,LLMの直感やKGの埋め込みなど,様々なレコメンデーション戦略を統合する報酬関数を用いて,強化学習を通じてレコメンデーションエージェントを訓練した。
迅速なエンジニアリングを通じて時間的認識を取り入れ、限られたインタラクションからユーザ好みのテキスト表現を生成することで、LIKRはコールドスタートシナリオにおける推奨性能を改善することができる。
さらに、LIKRは、KGを使用してレコメンデーションドメインデータセットを表現し、LLMの出力をKG探索戦略に制限することで、スケーラビリティの問題を回避することができる。
実世界のデータセットを用いた実験では、コールドスタートシーケンシャルなレコメンデーションシナリオにおいて、我々のモデルは最先端のレコメンデーション手法よりも優れていることが示された。
関連論文リスト
- Boosting Knowledge Graph-based Recommendations through Confidence-Aware Augmentation with Large Language Models [19.28217321004791]
大きな言語モデル(LLM)は、レコメンデーションタスクのための知識グラフの品質と関連性を改善するための有望な方法を提供する。
本稿では,KG と LLM を組み合わせた新しいフレームワークである LLM Augmentation (CKG-LLMA) を用いた Confidence-aware KG-based Recommendation Framework を提案する。
本フレームワークは,(1)高品質な情報でKGをリッチ化するためのLLMベースのサブグラフ拡張器,(2)ノイズの多い三重項をフィルタリングする信頼性に配慮したメッセージ伝搬機構,(3)ユーザ-テムインタラクションとKGデータを統合するための2視点コントラスト学習手法を含む。
論文 参考訳(メタデータ) (2025-02-06T02:06:48Z) - Knowledge Graph Retrieval-Augmented Generation for LLM-based Recommendation [43.505042881783446]
大規模言語モデル(LLM)は目覚ましい成果をもたらし、次世代のレコメンデーターシステムの開発の可能性を示している。
LLMは、LLMのバックボーン、特に幻覚の問題、最新のドメイン固有の知識の欠如に起因する固有の制限に直面している。
本稿では,知識グラフ(KG)から高品質かつ最新の構造情報を検索して,推薦を増強することを提案する。
論文 参考訳(メタデータ) (2025-01-04T08:16:23Z) - The Application of Large Language Models in Recommendation Systems [0.0]
大規模言語モデルは、非構造化データソースへのレコメンデーションフレームワークの利用を可能にする強力なツールである。
本稿では,レコメンデーションシステム,特に電子商取引,ソーシャルメディアプラットフォーム,ストリーミングサービス,教育技術におけるLLMの適用について論じる。
論文 参考訳(メタデータ) (2025-01-04T04:02:23Z) - Unveiling User Preferences: A Knowledge Graph and LLM-Driven Approach for Conversational Recommendation [55.5687800992432]
本稿では,Large Language Models (LLMs) とKGs (KGs) を相乗化するプラグイン・アンド・プレイフレームワークを提案する。
これにより、LLMはKGエンティティを簡潔な自然言語記述に変換することができ、ドメイン固有の知識を理解できるようになる。
論文 参考訳(メタデータ) (2024-11-16T11:47:21Z) - LLM-Powered Explanations: Unraveling Recommendations Through Subgraph Reasoning [40.53821858897774]
本稿では,Large Language Models (LLMs) とKGs (KGs) を相乗する新しいレコメンデータを紹介し,そのレコメンデーションを強化し,解釈可能な結果を提供する。
提案手法は,レコメンデータシステムの有効性と解釈性を両立させる。
論文 参考訳(メタデータ) (2024-06-22T14:14:03Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。