論文の概要: Knowledge Graph Contrastive Learning for Recommendation
- arxiv url: http://arxiv.org/abs/2205.00976v1
- Date: Mon, 2 May 2022 15:24:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:06:26.518461
- Title: Knowledge Graph Contrastive Learning for Recommendation
- Title(参考訳): 推薦のための知識グラフコントラスト学習
- Authors: Yuhao Yang, Chao Huang, Lianghao Xia, Chenliang Li
- Abstract要約: 我々は、知識グラフ強化レコメンデータシステムのための情報ノイズを軽減するために、一般的な知識グラフ比較学習フレームワークを設計する。
具体的には,情報集約におけるKGノイズを抑制する知識グラフ拡張スキーマを提案する。
我々は、KG拡張プロセスから追加の監視信号を利用して、クロスビューコントラスト学習パラダイムを導出する。
- 参考スコア(独自算出の注目度): 32.918864602360884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graphs (KGs) have been utilized as useful side information to
improve recommendation quality. In those recommender systems, knowledge graph
information often contains fruitful facts and inherent semantic relatedness
among items. However, the success of such methods relies on the high quality
knowledge graphs, and may not learn quality representations with two
challenges: i) The long-tail distribution of entities results in sparse
supervision signals for KG-enhanced item representation; ii) Real-world
knowledge graphs are often noisy and contain topic-irrelevant connections
between items and entities. Such KG sparsity and noise make the item-entity
dependent relations deviate from reflecting their true characteristics, which
significantly amplifies the noise effect and hinders the accurate
representation of user's preference.
To fill this research gap, we design a general Knowledge Graph Contrastive
Learning framework (KGCL) that alleviates the information noise for knowledge
graph-enhanced recommender systems. Specifically, we propose a knowledge graph
augmentation schema to suppress KG noise in information aggregation, and derive
more robust knowledge-aware representations for items. In addition, we exploit
additional supervision signals from the KG augmentation process to guide a
cross-view contrastive learning paradigm, giving a greater role to unbiased
user-item interactions in gradient descent and further suppressing the noise.
Extensive experiments on three public datasets demonstrate the consistent
superiority of our KGCL over state-of-the-art techniques. KGCL also achieves
strong performance in recommendation scenarios with sparse user-item
interactions, long-tail and noisy KG entities. Our implementation codes are
available at https://github.com/yuh-yang/KGCL-SIGIR22
- Abstract(参考訳): 知識グラフ(KG)は、推奨品質を改善するために有用なサイド情報として利用されてきた。
これらのレコメンダシステムでは、ナレッジグラフ情報は、しばしばアイテム間の実りある事実と固有の意味的関連を含んでいる。
しかし、そのような手法の成功は、高品質の知識グラフに依存しており、2つの課題で品質表現を学ばない可能性がある。
一 実体の長期分布は、KGの商品表示のための疎い監督信号をもたらす。
二 現実世界の知識グラフは、しばしば騒々しく、アイテムとエンティティ間のトピック非関連な接続を含んでいる。
このようなKG間隔とノイズにより、アイテム間の依存関係は、その真の特徴を反映することから逸脱し、ノイズ効果を著しく増幅し、ユーザの好みの正確な表現を妨げる。
この研究ギャップを埋めるために、知識グラフ強化レコメンデータシステムのための情報ノイズを軽減する一般的な知識グラフ比較学習フレームワーク(KGCL)を設計する。
具体的には,情報集約におけるkgノイズを抑制し,項目に対するより堅牢な知識認識表現を導出するための知識グラフ拡張スキーマを提案する。
さらに,kg加重プロセスから追加の監督信号を活用して,クロスビューのコントラスト学習パラダイムを導いており,勾配降下における非偏りのあるユーザ・テーマインタラクションにおいて,さらに大きな役割を担っている。
3つの公開データセットに対する大規模な実験は、最先端技術よりもKGCLが一貫した優位性を示している。
KGCLはまた、疎いユーザ-イテムインタラクション、ロングテール、ノイズの多いKGエンティティを含むレコメンデーションシナリオで強力なパフォーマンスを達成する。
実装コードはhttps://github.com/yuh-yang/kgcl-sigir22で利用可能です。
関連論文リスト
- Faithful Path Language Modelling for Explainable Recommendation over
Knowledge Graph [16.531887794171666]
PEARLMは,言語モデリングによるユーザ行動や製品側の知識を効率的に捉える新しい手法である。
我々のアプローチでは、知識グラフの埋め込みは言語モデルによってKG上の経路から直接学習され、同じ最適化空間におけるエンティティと関係を統一する。
論文 参考訳(メタデータ) (2023-10-25T08:14:49Z) - On the Sweet Spot of Contrastive Views for Knowledge-enhanced
Recommendation [49.18304766331156]
KG強化推薦のための新しいコントラスト学習フレームワークを提案する。
我々は、KGとIGのための2つの異なるコントラストビューを構築し、それらの相互情報を最大化する。
実世界の3つのデータセットに対する大規模な実験結果から,本手法の有効性と有効性が確認された。
論文 参考訳(メタデータ) (2023-09-23T14:05:55Z) - DEKGCI: A double-sided recommendation model for integrating knowledge
graph and user-item interaction graph [0.0]
本稿では,新しい両面推薦モデルであるDECGCIを提案する。
ユーザ側でのユーザ表現を豊かにするために,ユーザ-イテム相互作用グラフからの高次協調信号を使用する。
論文 参考訳(メタデータ) (2023-06-24T01:54:49Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - KRACL: Contrastive Learning with Graph Context Modeling for Sparse
Knowledge Graph Completion [37.92814873958519]
知識グラフ埋め込み (KGE) は、エンティティと関係を低次元空間にマッピングすることを目的としており、知識グラフ補完のためのテキストファクト標準となっている。
既存のKGE手法の多くは、知識グラフの頻度が低いエンティティを予測しにくいため、スパーシティの課題に悩まされている。
グラフコンテキストとコントラスト学習を用いて,KGの広がりを緩和する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-08-16T09:17:40Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Towards Robust Knowledge Graph Embedding via Multi-task Reinforcement
Learning [44.38215560989223]
既存の知識グラフ埋め込み法の多くは、KGの3つの事実はすべて正しいと仮定する。
これはKGの低品質かつ信頼性の低い表現につながる。
本稿では,ノイズの多いデータ問題を大幅に軽減できる汎用マルチタスク強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-11T08:51:37Z) - Conditional Attention Networks for Distilling Knowledge Graphs in
Recommendation [74.14009444678031]
本稿では,知識グラフをレコメンデーションシステムに組み込むために,知識対応コンディショナルアテンションネットワーク(KCAN)を提案する。
本研究では,まず,ユーザ・イテムネットワークとナレッジグラフのグローバルな意味的類似性を捉えるノード表現を得る。
そして,そのサブグラフに条件付きアテンションアグリゲーションを適用することで,その知識グラフを改良し,目標固有ノード表現を得る。
論文 参考訳(メタデータ) (2021-11-03T09:40:43Z) - DSKReG: Differentiable Sampling on Knowledge Graph for Recommendation
with Relational GNN [59.160401038969795]
我々は,GNN(DSKReG)を用いた推薦のための知識グラフの識別可能なサンプリングを提案する。
そこで本研究では,モデル学習手順と組み合わせて,関連する項目の選択を最適化する,識別可能なサンプリング戦略を考案する。
実験の結果,我々のモデルは最先端のKGベースのレコメンデータシステムよりも優れていた。
論文 参考訳(メタデータ) (2021-08-26T16:19:59Z) - Learning Intents behind Interactions with Knowledge Graph for
Recommendation [93.08709357435991]
知識グラフ(KG)は、推薦システムにおいてますます重要な役割を果たす。
既存のGNNベースのモデルは、きめ細かいインテントレベルでのユーザ項目関係の特定に失敗します。
本稿では,新しいモデルである知識グラフベースインテントネットワーク(kgin)を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:21:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。