論文の概要: Enabling Explainable Recommendation in E-commerce with LLM-powered Product Knowledge Graph
- arxiv url: http://arxiv.org/abs/2412.01837v1
- Date: Sun, 17 Nov 2024 10:57:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-08 09:16:04.598675
- Title: Enabling Explainable Recommendation in E-commerce with LLM-powered Product Knowledge Graph
- Title(参考訳): LLMを活用した製品知識グラフを用いたeコマースにおける説明可能な勧告の提案
- Authors: Menghan Wang, Yuchen Guo, Duanfeng Zhang, Jianian Jin, Minnie Li, Dan Schonfeld, Shawn Zhou,
- Abstract要約: LLMの知識を製品知識グラフ(PKG)に抽出する効率的なアプローチであるLLM-PKGを提案する。
我々は、KGの信頼性と可用性を確保するため、厳密な評価とプルーニング手法を採用している。
電子商取引サイト上で実施したA/Bテストを通じて、ユーザエンゲージメントとトランザクションを著しく促進するLLM-PKGの有効性を実証した。
- 参考スコア(独自算出の注目度): 13.808954793523075
- License:
- Abstract: How to leverage large language model's superior capability in e-commerce recommendation has been a hot topic. In this paper, we propose LLM-PKG, an efficient approach that distills the knowledge of LLMs into product knowledge graph (PKG) and then applies PKG to provide explainable recommendations. Specifically, we first build PKG by feeding curated prompts to LLM, and then map LLM response to real enterprise products. To mitigate the risks associated with LLM hallucination, we employ rigorous evaluation and pruning methods to ensure the reliability and availability of the KG. Through an A/B test conducted on an e-commerce website, we demonstrate the effectiveness of LLM-PKG in driving user engagements and transactions significantly.
- Abstract(参考訳): 大規模言語モデルのeコマースレコメンデーションにおける優れた能力をいかに活用するかは、ホットな話題である。
本稿では,LLMの知識を製品知識グラフ(PKG)に蒸留し,PKGを用いて説明可能なレコメンデーションを提供する,効率的なアプローチであるLLM-PKGを提案する。
具体的には、まず、計算したプロンプトを LLM に供給し、次に LLM の応答を実際のエンタープライズ製品にマッピングすることで、PKG を構築する。
LLM幻覚のリスクを軽減するため,我々はKGの信頼性と可用性を確保するために厳密な評価法と刈り取り法を採用した。
電子商取引サイト上で実施したA/Bテストを通じて、ユーザエンゲージメントとトランザクションを著しく促進するLLM-PKGの有効性を実証した。
関連論文リスト
- LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation [47.34949656215159]
大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
論文 参考訳(メタデータ) (2024-12-17T01:52:15Z) - OCEAN: Offline Chain-of-thought Evaluation and Alignment in Large Language Models [68.17018458283651]
本研究は,LLMのチェーン・オブ・思想能力のオフライン評価に焦点をあてる。
我々は知識グラフ(例えばWikidata5m)を使って、生成された思考の連鎖に対するフィードバックを提供する。
提案手法に基づいてLCMを最適化する方法を示す。
論文 参考訳(メタデータ) (2024-10-31T07:48:44Z) - CoRA: Collaborative Information Perception by Large Language Model's Weights for Recommendation [13.867950651601483]
LLM(Large Language Models)における協調情報の導入は,LLMを推奨に適応させる上で有望な手法である。
既存の手法では、テキストトークンと協調的な特徴を統一シーケンス入力に結合することでこれを実現する。
協調的なクエリジェネレータを備えた新しいパラダイムである textbfCollaborative textbfLoRA を提案する。
論文 参考訳(メタデータ) (2024-08-20T08:36:59Z) - Unlock the Power of Frozen LLMs in Knowledge Graph Completion [45.80451763142032]
大きな言語モデル(LLM)は、強力なコンテキストモデリングによって大きなコーパスから広範な知識を学ぶ。
我々は、LLMの中間層を刺激するためにプロンプトを利用することで、コンテキスト対応の知識三重項の隠蔽状態を捉える。
次に、これらの隠れ状態にデータ効率の分類器をトレーニングし、KGCにおける凍結LDMの本質的な機能を利用する。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z) - Re2LLM: Reflective Reinforcement Large Language Model for Session-based Recommendation [23.182787000804407]
セッションベースレコメンデーション(SBR)を強化するための有望なアプローチとして,大規模言語モデル(LLM)が登場している。
本稿では,SBRのための反射強化大言語モデル(Re2LLM)を提案する。
論文 参考訳(メタデータ) (2024-03-25T05:12:18Z) - KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。