論文の概要: LightKG: Efficient Knowledge-Aware Recommendations with Simplified GNN Architecture
- arxiv url: http://arxiv.org/abs/2506.10347v1
- Date: Thu, 12 Jun 2025 04:56:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.577061
- Title: LightKG: Efficient Knowledge-Aware Recommendations with Simplified GNN Architecture
- Title(参考訳): LightKG: 単純化したGNNアーキテクチャによる効率的な知識認識勧告
- Authors: Yanhui Li, Dongxia Wang, Zhu Sun, Haonan Zhang, Huizhong Guo,
- Abstract要約: 自己監視学習(SSL)はスパーティ問題に対処するために組み込まれており、トレーニング時間が長くなっている。
我々は、スパーシリティ問題に対処するために、シンプルながら強力なGNNベースのKGRSであるLightKGを提案する。
- 参考スコア(独自算出の注目度): 13.103429711515712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Graph Neural Networks (GNNs) have become the dominant approach for Knowledge Graph-aware Recommender Systems (KGRSs) due to their proven effectiveness. Building upon GNN-based KGRSs, Self-Supervised Learning (SSL) has been incorporated to address the sparity issue, leading to longer training time. However, through extensive experiments, we reveal that: (1)compared to other KGRSs, the existing GNN-based KGRSs fail to keep their superior performance under sparse interactions even with SSL. (2) More complex models tend to perform worse in sparse interaction scenarios and complex mechanisms, like attention mechanism, can be detrimental as they often increase learning difficulty. Inspired by these findings, we propose LightKG, a simple yet powerful GNN-based KGRS to address sparsity issues. LightKG includes a simplified GNN layer that encodes directed relations as scalar pairs rather than dense embeddings and employs a linear aggregation framework, greatly reducing the complexity of GNNs. Additionally, LightKG incorporates an efficient contrastive layer to implement SSL. It directly minimizes the node similarity in original graph, avoiding the time-consuming subgraph generation and comparison required in previous SSL methods. Experiments on four benchmark datasets show that LightKG outperforms 12 competitive KGRSs in both sparse and dense scenarios while significantly reducing training time. Specifically, it surpasses the best baselines by an average of 5.8\% in recommendation accuracy and saves 84.3\% of training time compared to KGRSs with SSL. Our code is available at https://github.com/1371149/LightKG.
- Abstract(参考訳): 近年,グラフニューラルネットワーク (GNN) が知識グラフ認識レコメンダシステム (KGRS) の主要なアプローチとなっている。
GNNベースのKGRSをベースとして、自己監視学習(SSL)が組み込まれ、スパーティの問題に対処し、トレーニング時間が長くなった。
1)他のKGRSと比較すると、既存のGNNベースのKGRSはSSLとの疎結合下では優れた性能を維持することができません。
2) より複雑なモデルではスパース相互作用のシナリオが悪化する傾向にあり, 注意機構のような複雑なメカニズムは, 学習の難しさを増大させるため, 有害である。
これらの知見に触発されて、スパーシリティ問題に対処するシンプルなGNNベースのKGRSであるLightKGを提案する。
LightKGは、高密度埋め込みではなくスカラーペアとして有向関係を符号化する単純化されたGNN層を含み、線形集約フレームワークを使用して、GNNの複雑さを大幅に低減する。
さらに、LightKGにはSSLを実装するための効率的なコントラスト層が組み込まれている。
元のグラフにおけるノードの類似性を直接最小化し、以前のSSLメソッドで必要とされる時間を要するサブグラフの生成と比較を避ける。
4つのベンチマークデータセットの実験によると、LightKGはスパースシナリオと密集シナリオの両方で12の競合KGRSを上回っ、トレーニング時間を大幅に短縮している。
具体的には、推奨精度が平均5.8\%のベースラインを超え、SSLのKGRSと比較してトレーニング時間の84.3\%を節約している。
私たちのコードはhttps://github.com/1371149/LightKGで利用可能です。
関連論文リスト
- LightGNN: Simple Graph Neural Network for Recommendation [14.514770044236375]
グラフニューラルネットワーク(GNN)は、協調的なレコメンデーションにおいて優れたパフォーマンスを示している。
既存のGNNパラダイムは、大規模でノイズの多い実世界のデータセットを扱う場合、スケーラビリティと堅牢性の課題に直面している。
軽量・蒸留方式のGNNプルーニングフレームワークであるLightGNNについて述べる。
論文 参考訳(メタデータ) (2025-01-06T18:59:55Z) - LightGCL: Simple Yet Effective Graph Contrastive Learning for
Recommendation [9.181689366185038]
グラフニューラルクラスタリングネットワーク(GNN)は、グラフベースのレコメンデータシステムのための強力な学習手法である。
本稿では,単純なグラフコントラスト学習パラダイムであるLightGCLを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:16:21Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Are Message Passing Neural Networks Really Helpful for Knowledge Graph
Completion? [49.858038034580005]
単純なモデルでMPNNに匹敵する性能が得られることを示す。
評価関数と損失関数の設計がKGCモデルの性能に強い影響を与えることを示す。
論文 参考訳(メタデータ) (2022-05-21T18:14:52Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Learning Intents behind Interactions with Knowledge Graph for
Recommendation [93.08709357435991]
知識グラフ(KG)は、推薦システムにおいてますます重要な役割を果たす。
既存のGNNベースのモデルは、きめ細かいインテントレベルでのユーザ項目関係の特定に失敗します。
本稿では,新しいモデルである知識グラフベースインテントネットワーク(kgin)を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:21:36Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。