論文の概要: Self-supervised Graph Learning for Recommendation
- arxiv url: http://arxiv.org/abs/2010.10783v4
- Date: Fri, 18 Jun 2021 11:56:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:43:00.500156
- Title: Self-supervised Graph Learning for Recommendation
- Title(参考訳): 推薦のための自己教師付きグラフ学習
- Authors: Jiancan Wu, Xiang Wang, Fuli Feng, Xiangnan He, Liang Chen, Jianxun
Lian, and Xing Xie
- Abstract要約: ユーザ・イテムグラフを用いた自己教師型学習を推奨する。
補助的自己監督タスクは、自己識別によるノード表現学習を強化する。
3つのベンチマークデータセットに関する実証的研究は、SGLの有効性を示す。
- 参考スコア(独自算出の注目度): 69.98671289138694
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Representation learning on user-item graph for recommendation has evolved
from using single ID or interaction history to exploiting higher-order
neighbors. This leads to the success of graph convolution networks (GCNs) for
recommendation such as PinSage and LightGCN. Despite effectiveness, we argue
that they suffer from two limitations: (1) high-degree nodes exert larger
impact on the representation learning, deteriorating the recommendations of
low-degree (long-tail) items; and (2) representations are vulnerable to noisy
interactions, as the neighborhood aggregation scheme further enlarges the
impact of observed edges.
In this work, we explore self-supervised learning on user-item graph, so as
to improve the accuracy and robustness of GCNs for recommendation. The idea is
to supplement the classical supervised task of recommendation with an auxiliary
self-supervised task, which reinforces node representation learning via
self-discrimination. Specifically, we generate multiple views of a node,
maximizing the agreement between different views of the same node compared to
that of other nodes. We devise three operators to generate the views -- node
dropout, edge dropout, and random walk -- that change the graph structure in
different manners. We term this new learning paradigm as
\textit{Self-supervised Graph Learning} (SGL), implementing it on the
state-of-the-art model LightGCN. Through theoretical analyses, we find that SGL
has the ability of automatically mining hard negatives. Empirical studies on
three benchmark datasets demonstrate the effectiveness of SGL, which improves
the recommendation accuracy, especially on long-tail items, and the robustness
against interaction noises. Our implementations are available at
\url{https://github.com/wujcan/SGL}.
- Abstract(参考訳): ユーザアイコングラフの表現学習は、単一IDやインタラクション履歴の使用から、高階隣人の利用へと進化してきた。
これにより、PinSageやLightGCNといったレコメンデーションのためのグラフ畳み込みネットワーク(GCN)が成功している。
実効性にも拘わらず,(1)高次ノードが表現学習により大きな影響を与えること,(2)低次(ロングテール)項目の推奨を損なうこと,(2)近所のアグリゲーションスキームが観察されたエッジの影響をさらに拡大するため,騒々しい相互作用に弱いこと,の2つの制限がある。
本研究では,GCNの精度とロバスト性を向上させるために,ユーザイットグラフ上での自己教師型学習について検討する。
従来の指導タスクを補助的な自己監督タスクで補完し、自己弁別によるノード表現学習を強化する。
具体的には、ノードの複数のビューを生成し、同じノードの異なるビュー間の一致を他のノードと比較して最大化する。
ノードドロップアウト、エッジドロップアウト、ランダムウォークという、グラフ構造を異なる方法で変更するビューを生成するために、3つの演算子を考案しました。
本稿では,この新たな学習パラダイムを,最先端モデルLightGCNに実装したSGL(textit{Self-supervised Graph Learning})と呼ぶ。
理論的解析により、SGLは自動的にハードネガティブをマイニングする能力を持つことがわかった。
3つのベンチマークデータセットに関する実証的研究は、特にロングテールアイテムにおける推奨精度を改善し、相互作用ノイズに対する堅牢性を向上させるSGLの有効性を示す。
我々の実装は \url{https://github.com/wujcan/SGL} で利用可能です。
関連論文リスト
- Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - Long-tail Augmented Graph Contrastive Learning for Recommendation [16.114255092924488]
本稿では,Long-tail Augmented Graph Contrastive Learning (LAGCL)法を提案する。
具体的には、予測された隣接情報を補うことで、尾ノードを強化するための学習可能な長尾拡張手法を提案する。
3つのベンチマークデータセットで行った実験は、我々のモデルの性能を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-09-20T09:57:20Z) - Self-Supervised Node Representation Learning via Node-to-Neighbourhood
Alignment [10.879056662671802]
自己教師付きノード表現学習は、教師付きノードと競合する未ラベルグラフからノード表現を学ぶことを目的としている。
本研究では,ノードとその周辺領域の隠蔽表現を整列させることにより,単純なyet効率の自己教師付きノード表現学習を提案する。
我々は,グラフ構造化データセットの集合に対して,ノード分類性能が期待できるノード表現を,小規模から大規模に学習する。
論文 参考訳(メタデータ) (2023-02-09T13:21:18Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Supervised Contrastive Learning for Recommendation [6.407166061614783]
本稿では,2部グラフを事前学習し,グラフ畳み込みニューラルネットワークを微調整する,教師付きコントラスト学習フレームワークを提案する。
我々は、この学習方法をSupervised Contrastive Learning (SCL)と呼び、最も先進的なLightGCNに適用する。
論文 参考訳(メタデータ) (2022-01-10T03:11:42Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Self-supervised Consensus Representation Learning for Attributed Graph [15.729417511103602]
グラフ表現学習に自己教師付き学習機構を導入する。
本稿では,新しい自己教師型コンセンサス表現学習フレームワークを提案する。
提案手法はトポロジグラフと特徴グラフの2つの視点からグラフを扱う。
論文 参考訳(メタデータ) (2021-08-10T07:53:09Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - CatGCN: Graph Convolutional Networks with Categorical Node Features [99.555850712725]
CatGCNはグラフ学習に適したノード機能である。
エンドツーエンドでCatGCNを訓練し、半教師付きノード分類でそれを実証する。
論文 参考訳(メタデータ) (2020-09-11T09:25:17Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。