論文の概要: Enabling Explainable Recommendation in E-commerce with LLM-powered Product Knowledge Graph
- arxiv url: http://arxiv.org/abs/2412.01837v1
- Date: Sun, 17 Nov 2024 10:57:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-23 16:39:32.495853
- Title: Enabling Explainable Recommendation in E-commerce with LLM-powered Product Knowledge Graph
- Title(参考訳): LLMを活用した製品知識グラフを用いたeコマースにおける説明可能な勧告の提案
- Authors: Menghan Wang, Yuchen Guo, Duanfeng Zhang, Jianian Jin, Minnie Li, Dan Schonfeld, Shawn Zhou,
- Abstract要約: LLMの知識を製品知識グラフ(PKG)に抽出する効率的なアプローチであるLLM-PKGを提案する。
我々は、KGの信頼性と可用性を確保するため、厳密な評価とプルーニング手法を採用している。
電子商取引サイト上で実施したA/Bテストを通じて、ユーザエンゲージメントとトランザクションを著しく促進するLLM-PKGの有効性を実証した。
- 参考スコア(独自算出の注目度): 13.808954793523075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to leverage large language model's superior capability in e-commerce recommendation has been a hot topic. In this paper, we propose LLM-PKG, an efficient approach that distills the knowledge of LLMs into product knowledge graph (PKG) and then applies PKG to provide explainable recommendations. Specifically, we first build PKG by feeding curated prompts to LLM, and then map LLM response to real enterprise products. To mitigate the risks associated with LLM hallucination, we employ rigorous evaluation and pruning methods to ensure the reliability and availability of the KG. Through an A/B test conducted on an e-commerce website, we demonstrate the effectiveness of LLM-PKG in driving user engagements and transactions significantly.
- Abstract(参考訳): 大規模言語モデルのeコマースレコメンデーションにおける優れた能力をいかに活用するかは、ホットな話題である。
本稿では,LLMの知識を製品知識グラフ(PKG)に蒸留し,PKGを用いて説明可能なレコメンデーションを提供する,効率的なアプローチであるLLM-PKGを提案する。
具体的には、まず、計算したプロンプトを LLM に供給し、次に LLM の応答を実際のエンタープライズ製品にマッピングすることで、PKG を構築する。
LLM幻覚のリスクを軽減するため,我々はKGの信頼性と可用性を確保するために厳密な評価法と刈り取り法を採用した。
電子商取引サイト上で実施したA/Bテストを通じて、ユーザエンゲージメントとトランザクションを著しく促進するLLM-PKGの有効性を実証した。
関連論文リスト
- LightPROF: A Lightweight Reasoning Framework for Large Language Model on Knowledge Graph [57.382255728234064]
大きな言語モデル(LLM)は、テキスト理解とゼロショット推論において素晴らしい能力を持っている。
知識グラフ(KG)は、LLMの推論プロセスに対して、リッチで信頼性の高いコンテキスト情報を提供する。
我々は、KGQA(LightPROF)のための新しい軽量で効率的なPrompt Learning-ReasOning Frameworkを提案する。
論文 参考訳(メタデータ) (2025-04-04T03:03:47Z) - ECKGBench: Benchmarking Large Language Models in E-commerce Leveraging Knowledge Graph [31.21413440242778]
大規模言語モデル(LLM)は、様々なNLPタスクでその能力を実証している。
プラットフォーム検索、パーソナライズされたレコメンデーション、カスタマーサービスといった実践的な実装によって証明されている。
LLMの事実性を評価するためのいくつかの手法が提案されているが、信頼性の欠如、高消費、ドメインの専門知識の欠如などの問題は、電子商取引における効果的な評価のギャップを残している。
電子商取引におけるLLMの能力を評価するためのデータセットであるECKGBenchを提案する。
論文 参考訳(メタデータ) (2025-03-20T09:49:15Z) - Improving LLM-powered Recommendations with Personalized Information [29.393390011083895]
我々は,2つの主要なChain-of-ThoughtプロセスとLLMによるレコメンデーションを統合したCoT-Recというパイプラインを提案する。
CoT-Recは,(1)パーソナライズされた情報抽出と(2)パーソナライズされた情報利用の2段階からなる。
実験結果から,CoT-RecはLLMによるレコメンデーションを改善する可能性が示唆された。
論文 参考訳(メタデータ) (2025-02-19T16:08:17Z) - LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation [47.34949656215159]
大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
論文 参考訳(メタデータ) (2024-12-17T01:52:15Z) - OCEAN: Offline Chain-of-thought Evaluation and Alignment in Large Language Models [68.17018458283651]
本研究は,LLMのチェーン・オブ・思想能力のオフライン評価に焦点をあてる。
我々は知識グラフ(例えばWikidata5m)を使って、生成された思考の連鎖に対するフィードバックを提供する。
提案手法に基づいてLCMを最適化する方法を示す。
論文 参考訳(メタデータ) (2024-10-31T07:48:44Z) - Unlock the Power of Frozen LLMs in Knowledge Graph Completion [45.80451763142032]
大きな言語モデル(LLM)は、強力なコンテキストモデリングによって大きなコーパスから広範な知識を学ぶ。
我々は、LLMの中間層を刺激するためにプロンプトを利用することで、コンテキスト対応の知識三重項の隠蔽状態を捉える。
次に、これらの隠れ状態にデータ効率の分類器をトレーニングし、KGCにおける凍結LDMの本質的な機能を利用する。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z) - Large Language Models Can Better Understand Knowledge Graphs Than We Thought [13.336418752729987]
知識グラフ(KG) モデルパラメータの埋め込みはますますコストがかかる。
現在のプロンプト方式は、しばしばトライアル・アンド・エラー方式に依存している。
非順序線形化三重項は、流線型NLテキストと比較して、LLMのKG理解に有効であることを示す。
論文 参考訳(メタデータ) (2024-02-18T10:44:03Z) - KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。