論文の概要: LightGCN: Simplifying and Powering Graph Convolution Network for
Recommendation
- arxiv url: http://arxiv.org/abs/2002.02126v4
- Date: Tue, 7 Jul 2020 04:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:15:00.241852
- Title: LightGCN: Simplifying and Powering Graph Convolution Network for
Recommendation
- Title(参考訳): LightGCN:レコメンデーションのためのグラフ畳み込みネットワークの簡素化と強化
- Authors: Xiangnan He, Kuan Deng, Xiang Wang, Yan Li, Yongdong Zhang and Meng
Wang
- Abstract要約: Graph Convolution Network (GCN)は、協調フィルタリングのための新しい最先端技術となった。
本研究は,GCNの設計を簡略化し,より簡潔かつ適切なレコメンデーションを実現することを目的としている。
我々は,光GCNと呼ばれる新しいモデルを提案する。
- 参考スコア(独自算出の注目度): 100.76229017056181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolution Network (GCN) has become new state-of-the-art for
collaborative filtering. Nevertheless, the reasons of its effectiveness for
recommendation are not well understood. Existing work that adapts GCN to
recommendation lacks thorough ablation analyses on GCN, which is originally
designed for graph classification tasks and equipped with many neural network
operations. However, we empirically find that the two most common designs in
GCNs -- feature transformation and nonlinear activation -- contribute little to
the performance of collaborative filtering. Even worse, including them adds to
the difficulty of training and degrades recommendation performance.
In this work, we aim to simplify the design of GCN to make it more concise
and appropriate for recommendation. We propose a new model named LightGCN,
including only the most essential component in GCN -- neighborhood aggregation
-- for collaborative filtering. Specifically, LightGCN learns user and item
embeddings by linearly propagating them on the user-item interaction graph, and
uses the weighted sum of the embeddings learned at all layers as the final
embedding. Such simple, linear, and neat model is much easier to implement and
train, exhibiting substantial improvements (about 16.0\% relative improvement
on average) over Neural Graph Collaborative Filtering (NGCF) -- a
state-of-the-art GCN-based recommender model -- under exactly the same
experimental setting. Further analyses are provided towards the rationality of
the simple LightGCN from both analytical and empirical perspectives.
- Abstract(参考訳): グラフ畳み込みネットワーク(gcn)は協調フィルタリングの新しい最先端技術となった。
しかし、その効果の理由はよく理解されていない。
GCNをレコメンデーションに適応する既存の作業は、もともとグラフ分類タスク用に設計され、多くのニューラルネットワーク操作を備えたGCNの徹底的なアブレーション分析を欠いている。
しかし、GCNの最も一般的な2つの設計(特徴変換と非線形活性化)は、協調フィルタリングの性能にはほとんど寄与しない。
さらに悪いことに、トレーニングの難しさが加わり、レコメンデーションパフォーマンスが低下します。
本稿では,GCNの設計を簡略化し,より簡潔かつ適切なレコメンデーションを実現することを目的とする。
我々は,協調フィルタリングのためのgcnの最も不可欠なコンポーネントのみを含む,lightgcnという新しいモデルを提案する。
具体的には、lightgcnはユーザとアイテムの埋め込みを線形に伝搬して学習し、すべてのレイヤで学んだ埋め込みの重み付け和を最終埋め込みとして使用する。
このような単純で線形で適切なモデルは、実装とトレーニングがずっと簡単で、まったく同じ実験環境下で、最新のGCNベースのレコメンデータモデルであるNeural Graph Collaborative Filtering(NGCF)よりも大幅に改善(平均で16.0倍の相対的な改善)されている。
分析的および経験的視点から、単純な lightgcn の合理性についてさらに分析を行う。
関連論文リスト
- Beyond Graph Convolutional Network: An Interpretable
Regularizer-centered Optimization Framework [12.116373546916078]
グラフ畳み込みネットワーク(GCN)は、性能向上と強力な一般化により、広く注目を集めている。
本稿では,ほとんどのGCNを解釈可能な正規化器中心最適化フレームワークを提案する。
提案フレームワークでは,グラフデータからトポロジとセマンティック構造を捉えるために,二重正規化グラフ畳み込みネットワーク(dubed tsGCN)を考案した。
論文 参考訳(メタデータ) (2023-01-11T05:51:33Z) - Old can be Gold: Better Gradient Flow can Make Vanilla-GCNs Great Again [96.4999517230259]
我々は,深いGCNの準標準性能を理解するために,勾配流の新しい視点を提供する。
スキップ接続を用いたバニラGCNの勾配誘導動的スイッチングを提案する。
我々の手法は、彼らのパフォーマンスを大幅に向上させ、快適に競争し、多くの最先端の手法より優れています。
論文 参考訳(メタデータ) (2022-10-14T21:30:25Z) - Rethinking Graph Convolutional Networks in Knowledge Graph Completion [83.25075514036183]
グラフ畳み込みネットワーク(GCN)は知識グラフ補完(KGC)においてますます人気が高まっている。
本稿では,代表的なGCNベースのKGCモデルを構築し,GCNのどの要因がKGCに重要なのかを明らかにする。
本稿では,既存のKGEモデルに線形変換されたエンティティ埋め込みを組み込む,LTE-KGEというシンプルなフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-08T11:36:18Z) - An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering [79.17319280791237]
局所的協調フィルタリング(ADAPT)のための適応グラフ事前学習フレームワークを提案する。
ADAPTは、異なるグラフにまたがる共通知識と、各グラフの特異性の両方をキャプチャする。
ユーザ/イテムの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方をキャプチャできる。
論文 参考訳(メタデータ) (2021-12-14T06:53:13Z) - SStaGCN: Simplified stacking based graph convolutional networks [2.556756699768804]
グラフ畳み込みネットワーク(GCN)は、様々なグラフ構造データ学習タスクにおいて広く研究されている強力なモデルである。
本稿では, SStaGCN (Simplified stacking based GCN) と呼ばれる新しいGCNを提案する。
SStaGCNはGCNの過密問題を効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2021-11-16T05:00:08Z) - Graph Partner Neural Networks for Semi-Supervised Learning on Graphs [16.489177915147785]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データを処理するのに強力であり、ノード分類、リンク予測、グラフ分類などのタスクで最先端のパフォーマンスを達成した。
グラフ畳み込み処理を繰り返した後にノードの表現が区別できない傾向にあるため、深いGCNが過度に滑らかな問題に悩まされることは避けられない。
本稿では,非パラメータ化GCNとパラメータ共有スキームを組み合わせたグラフパートナーニューラルネットワーク(GPNN)を提案する。
論文 参考訳(メタデータ) (2021-10-18T10:56:56Z) - User Embedding based Neighborhood Aggregation Method for Inductive
Recommendation [0.48598200320383667]
我々は,ユーザとアイテムの潜在機能(組込み)を推薦設定で学習する問題を考える。
グラフ畳み込みネットワーク(例:LightGCN)を用いた最近の手法は最先端の性能を達成する。
協調フィルタCF-GCNのためのグラフ畳み込みネットワークモデリング手法を提案する。
論文 参考訳(メタデータ) (2021-02-15T14:30:01Z) - On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation [60.34028546202372]
いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
論文 参考訳(メタデータ) (2020-10-23T13:57:39Z) - RGCF: Refined Graph Convolution Collaborative Filtering with concise and
expressive embedding [42.46797662323393]
我々はRefined Graph Convolution Collaborative Filtering(RGCF)というGCNベースの新しい協調フィルタリングモデルを開発した。
RGCFはグラフ内の暗黙の高次連結性を捉えることができ、結果として得られるベクトル表現はより表現力が高い。
我々は3つの公開百万規模のデータセットに対して広範な実験を行い、我々のRGCFが最先端のモデルを大幅に上回っていることを実証した。
論文 参考訳(メタデータ) (2020-07-07T12:26:10Z) - Revisiting Graph based Collaborative Filtering: A Linear Residual Graph
Convolutional Network Approach [55.44107800525776]
グラフ畳み込みネットワーク(GCN)は、最先端のグラフベースの表現学習モデルである。
本稿では、GCNベースの協調フィルタリング(CF)ベースのレコメンダシステム(RS)について再検討する。
単純なグラフ畳み込みネットワークの理論と整合して,非線形性を取り除くことで推奨性能が向上することを示す。
本稿では,ユーザ・イテム相互作用モデリングを用いたCF用に特別に設計された残差ネットワーク構造を提案する。
論文 参考訳(メタデータ) (2020-01-28T04:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。