論文の概要: Graph Soft-Contrastive Learning via Neighborhood Ranking
- arxiv url: http://arxiv.org/abs/2209.13964v1
- Date: Wed, 28 Sep 2022 09:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:12:01.047291
- Title: Graph Soft-Contrastive Learning via Neighborhood Ranking
- Title(参考訳): 周辺ランキングによるグラフソフトコントラスト学習
- Authors: Zhiyuan Ning, Pengfei Wang, Pengyang Wang, Ziyue Qiao, Wei Fan,
Denghui Zhang, Yi Du, Yuanchun Zhou
- Abstract要約: グラフコントラスト学習(GCL)は、グラフ自己教師型学習の新たなソリューションである。
グラフに対する新しいコントラスト学習パラダイム,すなわちグラフソフトコントラスト学習(GSCL)を提案する。
GSCLは、強化や二分法的な正当性を持たず、ランク付けされた地区を通して、より粒度の細かい対照的な学習を行う。
- 参考スコア(独自算出の注目度): 19.241089079154044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph contrastive learning (GCL) has been an emerging solution for graph
self-supervised learning. The core principle of GCL is to reduce the distance
between samples in the positive view, but increase the distance between samples
in the negative view. While achieving promising performances, current GCL
methods still suffer from two limitations: (1) uncontrollable validity of
augmentation, that graph perturbation may produce invalid views against
semantics and feature-topology correspondence of graph data; and (2) unreliable
binary contrastive justification, that the positiveness and negativeness of the
constructed views are difficult to be determined for non-euclidean graph data.
To tackle the above limitations, we propose a new contrastive learning paradigm
for graphs, namely Graph Soft-Contrastive Learning (GSCL), that conducts
contrastive learning in a finer-granularity via ranking neighborhoods without
any augmentations and binary contrastive justification. GSCL is built upon the
fundamental assumption of graph proximity that connected neighbors are more
similar than far-distant nodes. Specifically, we develop pair-wise and
list-wise Gated Ranking infoNCE Loss functions to preserve the relative ranking
relationship in the neighborhood. Moreover, as the neighborhood size
exponentially expands with more hops considered, we propose neighborhood
sampling strategies to improve learning efficiency. The extensive experimental
results show that our proposed GSCL can consistently achieve state-of-the-art
performances on various public datasets with comparable practical complexity to
GCL.
- Abstract(参考訳): グラフコントラスト学習(GCL)は、グラフ自己教師型学習の新たなソリューションである。
GCLの中核となる原理は、正の視点ではサンプル間の距離を減少させるが、負の視点ではサンプル間の距離を増やすことである。
有望な性能を実現する一方で、現在のgcl法は、(1)拡張の制御不能な妥当性、(2)グラフデータのセマンティクスと特徴トポロジ対応に対する無効なビューを生み出す可能性がある、(2)非ユークリッドグラフデータに対して構築されたビューの肯定性と否定性を決定するのが困難である、という2つの制限をまだ抱えている。
上記の制限に対処するため,グラフソフトコントラスト学習(GSCL)という,グラフに対する新たなコントラスト学習パラダイムを提案する。
GSCLは、連結された隣人は遠距離ノードよりも近いというグラフ近接の基本的な仮定に基づいている。
具体的には、周辺地域の相対ランク関係を維持するために、ペアワイドおよびリストワイドのGated Ranking infoNCE Loss関数を開発する。
さらに,より多くのホップを考慮した地域規模が指数関数的に拡大するにつれて,学習効率向上のための地域サンプリング戦略を提案する。
大規模な実験結果から,提案したGSCLは,GCLに匹敵する実用的複雑性を持つ各種公開データセット上で,常に最先端のパフォーマンスを達成可能であることが示された。
関連論文リスト
- Simple and Asymmetric Graph Contrastive Learning without Augmentations [39.301072710063636]
グラフのための非対称コントラスト学習(GraphACL)は実装が容易であり、グラフ拡張やホモフィリー仮定に依存しない。
実験結果から, 単純グラフACLは, ホモ親和性グラフとヘテロ親和性グラフの対比学習法と自己教師学習法を著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-29T03:14:20Z) - HomoGCL: Rethinking Homophily in Graph Contrastive Learning [64.85392028383164]
HomoGCL はモデルに依存しないフレームワークで、近隣のノードに固有の意味を持つ正の集合を拡大する。
我々は、HomoGCLが6つの公開データセットにまたがって複数の最先端結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-16T04:06:52Z) - Subgraph Networks Based Contrastive Learning [5.736011243152416]
グラフコントラスト学習(GCL)は、注釈付きデータ不足の問題を解決する。
既存のGCL手法の多くは、グラフ拡張戦略や相互情報推定操作の設計に重点を置いている。
サブグラフネットワークに基づくコントラスト学習(SGNCL)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-06T08:52:44Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Single-Pass Contrastive Learning Can Work for Both Homophilic and
Heterophilic Graph [60.28340453547902]
グラフコントラッシブ・ラーニング(GCL)技術は通常、コントラッシブ・ロスを構築するために単一のインスタンスに対して2つのフォワードパスを必要とする。
既存のGCLアプローチは、強力なパフォーマンス保証を提供していない。
我々はSingle-Pass Graph Contrastive Learning法(SP-GCL)を実装した。
経験的に、SP-GCLが学んだ機能は、計算オーバーヘッドを著しく少なくして、既存の強いベースラインにマッチまたは性能を向上することができる。
論文 参考訳(メタデータ) (2022-11-20T07:18:56Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - Graph Contrastive Learning with Personalized Augmentation [17.714437631216516]
グラフの教師なし表現を学習するための有効なツールとして,グラフコントラスト学習(GCL)が登場した。
我々は、textitPersonalized textitAugmentation (GPA) を用いたtextitGraph コントラスト学習と呼ばれる原則付きフレームワークを提案する。
GPAは、学習可能な拡張セレクタを介して、そのトポロジとノード属性に基づいて、各グラフの調整された拡張戦略を推論する。
論文 参考訳(メタデータ) (2022-09-14T11:37:48Z) - Geometry Contrastive Learning on Heterogeneous Graphs [50.58523799455101]
本稿では,幾何学コントラスト学習(Geometry Contrastive Learning, GCL)と呼ばれる,新しい自己指導型学習手法を提案する。
GCLはユークリッドと双曲的な視点からヘテロジニアスグラフを同時に見ることができ、リッチな意味論と複雑な構造をモデル化する能力の強い融合を目指している。
4つのベンチマークデータセットの大規模な実験は、提案手法が強いベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-25T03:54:53Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Adversarial Graph Augmentation to Improve Graph Contrastive Learning [21.54343383921459]
本稿では,GNNがトレーニング中に冗長な情報を捕捉することを避けるために,AD-GCL(adversarial-GCL)と呼ばれる新しい原理を提案する。
我々は、AD-GCLを最先端のGCL法と比較し、教師なしで最大$14%、転送で$6%、半教師なしの学習環境で$3%の性能向上を達成した。
論文 参考訳(メタデータ) (2021-06-10T15:34:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。