論文の概要: Your Graph Recommender is Provably a Single-view Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2407.17723v1
- Date: Thu, 25 Jul 2024 02:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 15:27:36.632644
- Title: Your Graph Recommender is Provably a Single-view Graph Contrastive Learning
- Title(参考訳): グラフレコメンダは、おそらくシングルビューのグラフコントラスト学習である
- Authors: Wenjie Yang, Shengzhong Zhang, Jiaxing Guo, Zengfeng Huang,
- Abstract要約: グラフレコメンデータ(GR)は、ユーザとテムの相互作用グラフから情報を抽出するためにカスタマイズされたグラフニューラルネットワーク(GNN)エンコーダの一種である。
グラフコントラスト学習(GCL)は、特定のコントラスト目的を持つGNNを学習し、しばしば教師なしで学習することを目的とした、人気のある研究方向である。
GRとGCLの研究の交わりにもかかわらず、2つの分野の関係に関する理論的理解は驚くほど少ない。
- 参考スコア(独自算出の注目度): 20.97898501484718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph recommender (GR) is a type of graph neural network (GNNs) encoder that is customized for extracting information from the user-item interaction graph. Due to its strong performance on the recommendation task, GR has gained significant attention recently. Graph contrastive learning (GCL) is also a popular research direction that aims to learn, often unsupervised, GNNs with certain contrastive objectives. As a general graph representation learning method, GCLs have been widely adopted with the supervised recommendation loss for joint training of GRs. Despite the intersection of GR and GCL research, theoretical understanding of the relationship between the two fields is surprisingly sparse. This vacancy inevitably leads to inefficient scientific research. In this paper, we aim to bridge the gap between the field of GR and GCL from the perspective of encoders and loss functions. With mild assumptions, we theoretically show an astonishing fact that graph recommender is equivalent to a commonly-used single-view graph contrastive model. Specifically, we find that (1) the classic encoder in GR is essentially a linear graph convolutional network with one-hot inputs, and (2) the loss function in GR is well bounded by a single-view GCL loss with certain hyperparameters. The first observation enables us to explain crucial designs of GR models, e.g., the removal of self-loop and nonlinearity. And the second finding can easily prompt many cross-field research directions. We empirically show a remarkable result that the recommendation loss and the GCL loss can be used interchangeably. The fact that we can train GR models solely with the GCL loss is particularly insightful, since before this work, GCLs were typically viewed as unsupervised methods that need fine-tuning. We also discuss some potential future works inspired by our theory.
- Abstract(参考訳): グラフレコメンデータ(GR)は、ユーザとテムの相互作用グラフから情報を抽出するためにカスタマイズされたグラフニューラルネットワーク(GNN)エンコーダの一種である。
このレコメンデーションタスクの強いパフォーマンスのため、最近GRは大きな注目を集めている。
グラフコントラスト学習(GCL)もまた、特定のコントラスト目標を持つGNNを学習し、しばしば教師なしの学習を目的とした、人気のある研究方向である。
汎用グラフ表現学習法として,GRのジョイントトレーニングにおける教師付き推薦損失が広く採用されている。
GRとGCLの研究の交わりにもかかわらず、2つの分野の関係に関する理論的理解は驚くほど少ない。
この空き地は必然的に非効率な科学研究につながる。
本稿では,エンコーダと損失関数の観点から,GRとGCLのギャップを埋めることを目的としている。
軽微な仮定で、グラフレコメンデータが一般的に用いられるシングルビューグラフの対照的なモデルと等価であるという驚くべき事実を理論的に示す。
具体的には、(1)GRの古典エンコーダは、基本的に1ホット入力を持つ線形グラフ畳み込みネットワークであり、(2)GRの損失関数は、特定のハイパーパラメータを持つ単一ビューGCL損失によって十分に拘束されている。
第1の観察により,GRモデルの重要な設計,例えば自己ループの除去,非線形性を説明できる。
そして2つ目の発見は、多くの分野横断研究の方向性を容易に促すことができる。
提案手法は,推奨損失とGCL損失を相互に利用できることを実証的に示す。
GRモデルをGCL損失のみで訓練できるという事実は特に洞察力に富んでいる。
また、我々の理論に触発された将来的な研究についても論じる。
関連論文リスト
- Graph Classification via Reference Distribution Learning: Theory and Practice [24.74871206083017]
グラフ参照分布学習(GRDL, Graph Reference Distribution Learning)は, グラフの効率的な分類法である。
GRDLはGNN層によって与えられるグラフの潜在ノード埋め込みを離散分布として扱い、グローバルプールなしで直接分類できる。
中規模および大規模グラフデータセットの実験は、GRDLが最先端よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-08-21T06:42:22Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Architecture Matters: Uncovering Implicit Mechanisms in Graph
Contrastive Learning [34.566003077992384]
本稿では,グラフコントラスト学習法(GCL)の体系的研究について述べる。
GNNの暗黙的帰納バイアスが対照的な学習にどのように作用するかを明らかにすることによって、理論上はGCLの興味深い性質に関する洞察を提供する。
既存のNNメソッドを直接GCLに移植するのではなく、グラフ学習のユニークなアーキテクチャにもっと注意を払うことを提唱する。
論文 参考訳(メタデータ) (2023-11-05T15:54:17Z) - Revisiting Graph Contrastive Learning from the Perspective of Graph
Spectrum [91.06367395889514]
グラフ拡張によるノード表現の学習には,GCL(Graph Contrastive Learning)が注目されている。
GCLとグラフスペクトルの関連性を確立することで,これらの疑問に答える。
汎用かつGCLフレンドリなプラグインであるスペクトルグラフコントラスト学習モジュール(SpCo)を提案する。
論文 参考訳(メタデータ) (2022-10-05T15:32:00Z) - Graph Soft-Contrastive Learning via Neighborhood Ranking [19.241089079154044]
グラフコントラスト学習(GCL)は,グラフ自己教師型学習の領域において,有望なアプローチとして登場した。
グラフソフトコントラスト学習(GSCL)という新しいパラダイムを提案する。
GSCLは地域ランキングを通じてGCLを促進するため、全く同様のペアを特定する必要がなくなる。
論文 参考訳(メタデータ) (2022-09-28T09:52:15Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - Adversarial Graph Augmentation to Improve Graph Contrastive Learning [21.54343383921459]
本稿では,GNNがトレーニング中に冗長な情報を捕捉することを避けるために,AD-GCL(adversarial-GCL)と呼ばれる新しい原理を提案する。
我々は、AD-GCLを最先端のGCL法と比較し、教師なしで最大$14%、転送で$6%、半教師なしの学習環境で$3%の性能向上を達成した。
論文 参考訳(メタデータ) (2021-06-10T15:34:26Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Self-supervised Graph Learning for Recommendation [69.98671289138694]
ユーザ・イテムグラフを用いた自己教師型学習を推奨する。
補助的自己監督タスクは、自己識別によるノード表現学習を強化する。
3つのベンチマークデータセットに関する実証的研究は、SGLの有効性を示す。
論文 参考訳(メタデータ) (2020-10-21T06:35:26Z) - Graph Random Neural Network for Semi-Supervised Learning on Graphs [36.218650686748546]
グラフニューラルネットワーク(GNN)が広範に研究されているグラフ上での半教師あり学習の問題について検討する。
既存のGNNの多くは、ラベル付きノードが不足している場合、本質的に過度なスムース、非ロバスト性、および弱一般化の制限に悩まされている。
本稿では,これらの問題に対処するシンプルなフレームワークである Graph R NEURAL NETWORKS (GRAND) を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。