論文の概要: Breaking the Barrier: Utilizing Large Language Models for Industrial
Recommendation Systems through an Inferential Knowledge Graph
- arxiv url: http://arxiv.org/abs/2402.13750v1
- Date: Wed, 21 Feb 2024 12:22:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 15:31:54.695043
- Title: Breaking the Barrier: Utilizing Large Language Models for Industrial
Recommendation Systems through an Inferential Knowledge Graph
- Title(参考訳): 障壁を破る: 推論知識グラフによる産業レコメンデーションシステムのための大規模言語モデルの利用
- Authors: Qian Zhao, Hao Qian, Ziqi Liu, Gong-Duo Zhang and Lihong Gu
- Abstract要約: 大規模言語モデルに基づく補完的知識強化推薦システム(LLM-KERec)を提案する。
アイテムとユーザ情報から統一された概念用語を抽出し、ユーザ意図の遷移をキャプチャし、新しいアイテムに適応する。
3つの業界データセットで実施された大規模な実験は、既存のアプローチと比較して、我々のモデルの大幅な性能向上を実証している。
- 参考スコア(独自算出の注目度): 19.201697767418597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommendation systems are widely used in e-commerce websites and online
platforms to address information overload. However, existing systems primarily
rely on historical data and user feedback, making it difficult to capture user
intent transitions. Recently, Knowledge Base (KB)-based models are proposed to
incorporate expert knowledge, but it struggle to adapt to new items and the
evolving e-commerce environment. To address these challenges, we propose a
novel Large Language Model based Complementary Knowledge Enhanced
Recommendation System (LLM-KERec). It introduces an entity extractor that
extracts unified concept terms from item and user information. To provide
cost-effective and reliable prior knowledge, entity pairs are generated based
on entity popularity and specific strategies. The large language model
determines complementary relationships in each entity pair, constructing a
complementary knowledge graph. Furthermore, a new complementary recall module
and an Entity-Entity-Item (E-E-I) weight decision model refine the scoring of
the ranking model using real complementary exposure-click samples. Extensive
experiments conducted on three industry datasets demonstrate the significant
performance improvement of our model compared to existing approaches.
Additionally, detailed analysis shows that LLM-KERec enhances users' enthusiasm
for consumption by recommending complementary items. In summary, LLM-KERec
addresses the limitations of traditional recommendation systems by
incorporating complementary knowledge and utilizing a large language model to
capture user intent transitions, adapt to new items, and enhance recommendation
efficiency in the evolving e-commerce landscape.
- Abstract(参考訳): レコメンデーションシステムは、電子商取引ウェブサイトやオンラインプラットフォームで情報過負荷に対処するために広く利用されている。
しかし、既存のシステムは主に履歴データとユーザーフィードバックに依存しているため、ユーザーの意図の遷移を捉えるのが困難である。
近年、知識ベース(KB)ベースのモデルは専門家の知識を取り入れるために提案されているが、新しいアイテムや進化するeコマース環境への適応に苦慮している。
これらの課題に対処するため,我々はLarge Language Model based Complementary Knowledge Enhanced Recommendation System (LLM-KERec)を提案する。
アイテムとユーザ情報から統一概念用語を抽出するエンティティ抽出器を導入する。
コスト効率が高く信頼性の高い事前知識を提供するため、エンティティの人気と特定の戦略に基づいてエンティティペアを生成する。
大きな言語モデルは、それぞれのエンティティペアにおける補完関係を決定し、補完的な知識グラフを構築する。
さらに,新しい補足リコールモジュールとEntity-Entity-Item (E-E-I)重み決定モデルにより,実際の補足露出クリックサンプルを用いてランキングモデルのスコアリングを改良する。
3つの業界データセットで行った広範囲な実験は、既存のアプローチと比較して、モデルのパフォーマンスが大幅に向上していることを示している。
さらに,LCM-KERecは,補完項目を推奨することで,利用者の消費への熱意を高めることを示す。
要約すると、LLM-KERecは、補完的な知識を取り入れ、大きな言語モデルを利用してユーザー意図の遷移を捉え、新しい項目に適応し、進化するeコマースの展望におけるレコメンデーション効率を高めることによって、従来のレコメンデーションシステムの限界に対処する。
関連論文リスト
- Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.912663905306209]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - Knowledge Enhanced Multi-intent Transformer Network for Recommendation [11.53964363972865]
我々は,KGTN(Knowledge Enhanced Multi-intent Transformer Network for Recommendation)という新しいアプローチを提案する。
Graph Transformerを使用したGlobal Intentsは、ユーザ-item-relation-entityインタラクションからグラフトランスフォーマーへのグローバルシグナルを取り入れることで、学習可能なユーザ意図の取得に重点を置いている。
インテント下での知識コントラストの認知は、正確で堅牢な表現を学ぶことに集中している。
論文 参考訳(メタデータ) (2024-05-31T01:07:37Z) - EmbSum: Leveraging the Summarization Capabilities of Large Language Models for Content-Based Recommendations [38.44534579040017]
ユーザと候補項目のオフライン事前計算を可能にするフレームワークであるEmbSumを紹介する。
このモデルがユーザ興味の要約を生成する能力は貴重な副産物であり、パーソナライズされたコンテンツレコメンデーションに有用である。
論文 参考訳(メタデータ) (2024-05-19T04:31:54Z) - Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Reformulating Sequential Recommendation: Learning Dynamic User Interest with Content-enriched Language Modeling [18.297332953450514]
本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
論文 参考訳(メタデータ) (2023-09-19T08:54:47Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - Self-supervised Learning for Large-scale Item Recommendations [18.19202958502061]
大規模なレコメンデータモデルは、巨大なカタログから最も関連性の高いアイテムを見つけ出す。
コーパスには何百万から数十億ものアイテムがあり、ユーザーはごく少数のユーザーに対してフィードバックを提供する傾向にある。
大規模項目推薦のためのマルチタスク自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-25T06:21:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。