論文の概要: Comprehending Knowledge Graphs with Large Language Models for Recommender Systems
- arxiv url: http://arxiv.org/abs/2410.12229v2
- Date: Fri, 07 Feb 2025 09:08:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:54:01.117846
- Title: Comprehending Knowledge Graphs with Large Language Models for Recommender Systems
- Title(参考訳): リコメンダシステムのための大規模言語モデルを用いた知識グラフの補完
- Authors: Ziqiang Cui, Yunpeng Weng, Xing Tang, Fuyuan Lyu, Dugang Liu, Xiuqiang He, Chen Ma,
- Abstract要約: 知識グラフを改善するために,CoLaKGと呼ばれる新しい手法を提案する。
CoLaKGは大規模な言語モデル(LLM)を使用してKGベースのレコメンデーションを改善する。
- 参考スコア(独自算出の注目度): 13.270018897057293
- License:
- Abstract: In recent years, the introduction of knowledge graphs (KGs) has significantly advanced recommender systems by facilitating the discovery of potential associations between items. However, existing methods still face several limitations. First, most KGs suffer from missing facts or limited scopes. Second, existing methods convert textual information in KGs into IDs, resulting in the loss of natural semantic connections between different items. Third, existing methods struggle to capture high-order connections in the global KG. To address these limitations, we propose a novel method called CoLaKG, which leverages large language models (LLMs) to improve KG-based recommendations. The extensive world knowledge and remarkable reasoning capabilities of LLMs enable our method to supplement missing facts in KGs. Additionally, their powerful text understanding abilities allow for better utilization of semantic information. Specifically, CoLaKG extracts useful information from the KG at both local and global levels. By employing item-centered subgraph extraction and prompt engineering, it accurately captures the local KG. Subsequently, through retrieval-based neighbor enhancement, it supplements the current item by capturing related items from the entire KG, thereby effectively utilizing global information. The local and global information extracted by the LLM are effectively integrated into the recommendation model through a representation fusion module and a retrieval-augmented representation learning module, respectively, thereby improving recommendation performance. Extensive experiments on four real-world datasets demonstrate the superiority of our method.
- Abstract(参考訳): 近年、知識グラフ(KG)の導入は、アイテム間の潜在的な関連の発見を容易にすることで、推奨システムを大幅に進歩させてきた。
しかし、既存の手法にはいくつかの制限がある。
第一に、ほとんどのKGは、欠落した事実や限られた範囲に悩まされる。
第二に、既存の方法では、KGのテキスト情報をIDに変換し、異なる項目間の自然な意味的接続が失われる。
第三に、既存の手法はグローバルなKGにおける高次接続を捉えるのに苦労している。
これらの制約に対処するために,大規模な言語モデル(LLM)を活用してKGに基づくレコメンデーションを改善するCoLaKGという新しい手法を提案する。
LLMの豊富な世界知識と顕著な推論能力により、我々の手法はKGの欠落した事実を補うことができる。
さらに、その強力なテキスト理解能力により、セマンティック情報の利用性が向上する。
具体的には、CoLaKGはKGからローカルレベルとグローバルレベルの両方で有用な情報を抽出する。
アイテム中心のサブグラフ抽出とプロンプトエンジニアリングを用いることで、局所的なKGを正確にキャプチャする。
その後、検索ベースの隣人強化により、KG全体から関連項目を捕捉し、グローバル情報を有効に活用することにより、現在の項目を補完する。
LLMによって抽出された局所情報とグローバル情報は、それぞれ表現融合モジュールと検索拡張表現学習モジュールを介してレコメンデーションモデルに有効に統合され、レコメンデーション性能が向上する。
4つの実世界のデータセットに対する大規模な実験により,本手法の優位性を実証した。
関連論文リスト
- GLTW: Joint Improved Graph Transformer and LLM via Three-Word Language for Knowledge Graph Completion [52.026016846945424]
我々は、KGの構造情報をエンコードし、それを大規模言語モデルにマージするGLTWと呼ばれる新しい手法を提案する。
具体的には、局所構造情報とグローバル構造情報の両方を効果的に符号化する改良されたグラフ変換器(iGT)を導入する。
また,KG内のすべてのエンティティを分類対象として用いたサブグラフに基づく多分類学習目標を開発し,学習効率を向上する。
論文 参考訳(メタデータ) (2025-02-17T06:02:59Z) - Boosting Knowledge Graph-based Recommendations through Confidence-Aware Augmentation with Large Language Models [19.28217321004791]
大きな言語モデル(LLM)は、レコメンデーションタスクのための知識グラフの品質と関連性を改善するための有望な方法を提供する。
本稿では,KG と LLM を組み合わせた新しいフレームワークである LLM Augmentation (CKG-LLMA) を用いた Confidence-aware KG-based Recommendation Framework を提案する。
本フレームワークは,(1)高品質な情報でKGをリッチ化するためのLLMベースのサブグラフ拡張器,(2)ノイズの多い三重項をフィルタリングする信頼性に配慮したメッセージ伝搬機構,(3)ユーザ-テムインタラクションとKGデータを統合するための2視点コントラスト学習手法を含む。
論文 参考訳(メタデータ) (2025-02-06T02:06:48Z) - Leveraging Large Language Models for Semantic Query Processing in a Scholarly Knowledge Graph [1.7418328181959968]
本研究は,革新的なセマンティッククエリ処理システムを開発することを目的としている。
オーストラリア国立大学のコンピュータサイエンス(CS)研究者による研究成果に関する総合的な情報を得ることができる。
論文 参考訳(メタデータ) (2024-05-24T09:19:45Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - FedMKGC: Privacy-Preserving Federated Multilingual Knowledge Graph
Completion [21.4302940596294]
知識グラフ補完(KGC)は、知識グラフ(KG)の欠落事実を予測することを目的とする。
KG間で生データを転送することに依存する従来の方法は、プライバシー上の懸念を提起している。
我々は、生データ交換やエンティティアライメントを必要とせずに、複数のKGから暗黙的に知識を集約する新しい連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-17T08:09:27Z) - On the Sweet Spot of Contrastive Views for Knowledge-enhanced
Recommendation [49.18304766331156]
KG強化推薦のための新しいコントラスト学習フレームワークを提案する。
我々は、KGとIGのための2つの異なるコントラストビューを構築し、それらの相互情報を最大化する。
実世界の3つのデータセットに対する大規模な実験結果から,本手法の有効性と有効性が確認された。
論文 参考訳(メタデータ) (2023-09-23T14:05:55Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z) - Collective Knowledge Graph Completion with Mutual Knowledge Distillation [11.922522192224145]
我々は,異なるKGからの集合的知識の最大化に焦点をあてるマルチKG完備化の問題について検討する。
CKGC-CKDと呼ばれる,個々のKGと大きな融合KGの両方で,関係対応グラフ畳み込みネットワークエンコーダモデルを用いる新しい手法を提案する。
複数言語データセットによる実験結果から,本手法はKGCタスクにおけるすべての最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T09:49:40Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。