論文の概要: Unifying Graph Contrastive Learning with Flexible Contextual Scopes
- arxiv url: http://arxiv.org/abs/2210.08792v1
- Date: Mon, 17 Oct 2022 07:16:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:32:16.328034
- Title: Unifying Graph Contrastive Learning with Flexible Contextual Scopes
- Title(参考訳): フレキシブルコンテキストスコープによるグラフコントラスト学習の統一
- Authors: Yizhen Zheng, Yu Zheng, Xiaofei Zhou, Chen Gong, Vincent CS Lee,
Shirui Pan
- Abstract要約: フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
- 参考スコア(独自算出の注目度): 57.86762576319638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph contrastive learning (GCL) has recently emerged as an effective
learning paradigm to alleviate the reliance on labelling information for graph
representation learning. The core of GCL is to maximise the mutual information
between the representation of a node and its contextual representation (i.e.,
the corresponding instance with similar semantic information) summarised from
the contextual scope (e.g., the whole graph or 1-hop neighbourhood). This
scheme distils valuable self-supervision signals for GCL training. However,
existing GCL methods still suffer from limitations, such as the incapacity or
inconvenience in choosing a suitable contextual scope for different datasets
and building biased contrastiveness. To address aforementioned problems, we
present a simple self-supervised learning method termed Unifying Graph
Contrastive Learning with Flexible Contextual Scopes (UGCL for short). Our
algorithm builds flexible contextual representations with tunable contextual
scopes by controlling the power of an adjacency matrix. Additionally, our
method ensures contrastiveness is built within connected components to reduce
the bias of contextual representations. Based on representations from both
local and contextual scopes, UGCL optimises a very simple contrastive loss
function for graph representation learning. Essentially, the architecture of
UGCL can be considered as a general framework to unify existing GCL methods. We
have conducted intensive experiments and achieved new state-of-the-art
performance in six out of eight benchmark datasets compared with
self-supervised graph representation learning baselines. Our code has been
open-sourced.
- Abstract(参考訳): グラフコントラスト学習(gcl)は、グラフ表現学習のためのラベル情報への依存を軽減する効果的な学習パラダイムとして最近登場した。
gclの中核は、その文脈範囲(例えば、グラフ全体または1-hop近傍)から要約された、ノードの表現とその文脈表現(すなわち、類似した意味情報を持つ対応するインスタンス)の間の相互情報を最大化することである。
このスキームは、GCL訓練のための貴重な自己超越信号を排除する。
しかしながら、既存のGCLメソッドは、異なるデータセットに対して適切なコンテキストスコープを選択し、バイアスのあるコントラスト性を構築する際の非能力や不便さといった制限に悩まされている。
上記の問題に対処するために,フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略称UGCL)という,シンプルな自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御して,可変コンテキストスコープによる柔軟な文脈表現を構築する。
さらに,コントラスト性が連結コンポーネント内に構築され,文脈表現のバイアスを軽減することを保証する。
局所的および文脈的スコープの表現に基づいて、UGCLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
基本的に、UGCLのアーキテクチャは既存のGCLメソッドを統合するための一般的なフレームワークと見なすことができる。
自己教師付きグラフ表現学習ベースラインと比較して,8つのベンチマークデータセットのうち6つにおいて,集中的な実験を行い,新たな最先端性能を達成した。
私たちのコードはオープンソースです。
関連論文リスト
- L^2CL: Embarrassingly Simple Layer-to-Layer Contrastive Learning for Graph Collaborative Filtering [33.165094795515785]
グラフニューラルネットワーク(GNN)は、最近、協調フィルタリングにおいて近隣の信号をモデル化するための効果的なアプローチとして登場した。
L2CLは、異なるレイヤの表現を対比する、原則的なレイヤ間コントラスト学習フレームワークである。
その結果,L2CLは,一対一のコントラスト学習パラダイムのみを用いて,固有の意味構造をキャプチャし,ノード表現の質を向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-07-19T12:45:21Z) - Graph-level Protein Representation Learning by Structure Knowledge
Refinement [50.775264276189695]
本稿では、教師なしの方法でグラフ全体の表現を学習することに焦点を当てる。
本稿では、データ構造を用いて、ペアが正か負かの確率を決定する構造知識精製(Structure Knowledge Refinement, SKR)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T09:05:33Z) - HomoGCL: Rethinking Homophily in Graph Contrastive Learning [64.85392028383164]
HomoGCL はモデルに依存しないフレームワークで、近隣のノードに固有の意味を持つ正の集合を拡大する。
我々は、HomoGCLが6つの公開データセットにまたがって複数の最先端結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-16T04:06:52Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Graph Soft-Contrastive Learning via Neighborhood Ranking [19.241089079154044]
グラフコントラスト学習(GCL)は,グラフ自己教師型学習の領域において,有望なアプローチとして登場した。
グラフソフトコントラスト学習(GSCL)という新しいパラダイムを提案する。
GSCLは地域ランキングを通じてGCLを促進するため、全く同様のペアを特定する必要がなくなる。
論文 参考訳(メタデータ) (2022-09-28T09:52:15Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Structural and Semantic Contrastive Learning for Self-supervised Node
Representation Learning [32.126228702554144]
グラフコントラスト学習(GCL)は、自己教師型で一般化可能、転送可能、堅牢なノード表現を学習するために多くの研究関心を集めている。
この作業では、既存の教師なしのGCLを超越して、シンプルだが効果的なフレームワークであるS$3$-CLを提案し、それらの制限に対処します。
実験の結果、S$3$-CLで学習したノード表現は、最先端のGCL法と比較して、異なるダウンストリームタスクにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-02-17T07:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。