論文の概要: Distance-wise Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2012.07437v1
- Date: Mon, 14 Dec 2020 11:44:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 01:47:59.207498
- Title: Distance-wise Graph Contrastive Learning
- Title(参考訳): 距離方向グラフコントラスト学習
- Authors: Deli Chen, Yanyai Lin, Lei Li, Xuancheng Ren. Peng Li, Jie Zhou, Xu
Sun
- Abstract要約: コントラスト学習(CL)は、グラフベースの半教師付き学習(SSL)で非常に効果的です。
DwGCL(Distance-wise Graph Contrastive Learning)手法を2つの視点から提案します。
5つのベンチマークグラフデータセットに関する実験は、DwGCLが以前のGCLメソッドよりも明確な改善をもたらすことを示しています。
- 参考スコア(独自算出の注目度): 21.790413668252828
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning (CL) has proven highly effective in graph-based
semi-supervised learning (SSL), since it can efficiently supplement the limited
task information from the annotated nodes in graph. However, existing graph CL
(GCL) studies ignore the uneven distribution of task information across graph
caused by the graph topology and the selection of annotated nodes. They apply
CL to the whole graph evenly, which results in an incongruous combination of CL
and graph learning. To address this issue, we propose to apply CL in the graph
learning adaptively by taking the received task information of each node into
consideration. Firstly, we introduce Group PageRank to measure the node
information gain from graph and find that CL mainly works for nodes that are
topologically far away from the labeled nodes. We then propose our
Distance-wise Graph Contrastive Learning (DwGCL) method from two views:(1) From
the global view of the task information distribution across the graph, we
enhance the CL effect on nodes that are topologically far away from labeled
nodes; (2) From the personal view of each node's received information, we
measure the relative distance between nodes and then we adapt the sampling
strategy of GCL accordingly. Extensive experiments on five benchmark graph
datasets show that DwGCL can bring a clear improvement over previous GCL
methods. Our analysis on eight graph neural network with various types of
architecture and three different annotation settings further demonstrates the
generalizability of DwGCL.
- Abstract(参考訳): グラフベースの半教師付き学習(ssl)では、グラフの注釈付きノードから制限されたタスク情報を効率的に補完できるため、コントラスト学習(cl)が極めて効果的であることが証明されている。
しかしながら、既存のグラフcl(gcl)研究は、グラフトポロジーと注釈付きノードの選択によるグラフ全体のタスク情報の不均一な分布を無視している。
彼らは、CLをグラフ全体に等しく適用し、CLとグラフ学習の不連続な組み合わせをもたらす。
この問題に対処するため,各ノードのタスク情報を考慮し,グラフ学習にCLを適応的に適用することを提案する。
まず,グラフからのノード情報ゲインを測定するためにグループページランクを導入し,ラベル付きノードから位相的に離れたノードに対してclが有効であることを示す。
次に,2つの視点からdwgcl( distance-wise graph contrastive learning)法を提案する。(1) グラフ全体のタスク情報分布の全体的視点から,ラベル付きノードから離れたノードに対するcl効果を高める。(2) 各ノードの受信情報の個人的視点から,ノード間の相対距離を計測し,それに応じてgclのサンプリング戦略を適用する。
5つのベンチマークグラフデータセットに対する大規模な実験は、DwGCLが従来のGCLメソッドよりも明確な改善をもたらすことを示している。
各種アーキテクチャと3つの異なるアノテーション設定を持つ8つのグラフニューラルネットワークの解析により、DwGCLの一般化可能性をさらに証明した。
関連論文リスト
- Local Structure-aware Graph Contrastive Representation Learning [12.554113138406688]
複数のビューからノードの構造情報をモデル化するための局所構造対応グラフ比較表現学習法(LS-GCL)を提案する。
ローカルビューでは、各ターゲットノードのセマンティックサブグラフが共有GNNエンコーダに入力され、サブグラフレベルに埋め込まれたターゲットノードを取得する。
グローバルな視点では、元のグラフはノードの必要不可欠な意味情報を保存しているので、共有GNNエンコーダを利用して、グローバルなグラフレベルでターゲットノードの埋め込みを学習する。
論文 参考訳(メタデータ) (2023-08-07T03:23:46Z) - Subgraph Networks Based Contrastive Learning [5.736011243152416]
グラフコントラスト学習(GCL)は、注釈付きデータ不足の問題を解決する。
既存のGCL手法の多くは、グラフ拡張戦略や相互情報推定操作の設計に重点を置いている。
サブグラフネットワークに基づくコントラスト学習(SGNCL)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-06T08:52:44Z) - Graph Contrastive Learning under Heterophily via Graph Filters [51.46061703680498]
グラフコントラスト学習(CL)法は,GNNエンコーダを用いて得られる拡張ノード表現の類似性を最大化することにより,ノード表現を自己指導的に学習する。
本研究では,ヘテロフィリー下でのグラフ表現学習に有効なグラフCL法であるHLCLを提案する。
我々の広範な実験により、HLCLはヘテロフィリーのベンチマークデータセットや大規模実世界のグラフで最先端のグラフCL法を最大7%上回り、ヘテロフィリーのデータセットでグラフ教師あり学習法を最大10%上回ります。
論文 参考訳(メタデータ) (2023-03-11T08:32:39Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Graph Soft-Contrastive Learning via Neighborhood Ranking [19.241089079154044]
グラフコントラスト学習(GCL)は,グラフ自己教師型学習の領域において,有望なアプローチとして登場した。
グラフソフトコントラスト学習(GSCL)という新しいパラダイムを提案する。
GSCLは地域ランキングを通じてGCLを促進するため、全く同様のペアを特定する必要がなくなる。
論文 参考訳(メタデータ) (2022-09-28T09:52:15Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Self-supervised Consensus Representation Learning for Attributed Graph [15.729417511103602]
グラフ表現学習に自己教師付き学習機構を導入する。
本稿では,新しい自己教師型コンセンサス表現学習フレームワークを提案する。
提案手法はトポロジグラフと特徴グラフの2つの視点からグラフを扱う。
論文 参考訳(メタデータ) (2021-08-10T07:53:09Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Graph InfoClust: Leveraging cluster-level node information for
unsupervised graph representation learning [12.592903558338444]
本稿では,グラフ InfoClust というグラフ表現学習手法を提案する。
同社はさらに、クラスタレベルの情報コンテンツをキャプチャしようとしている。
この最適化により、ノード表現はよりリッチな情報とノイズ相互作用をキャプチャし、それによって品質が向上する。
論文 参考訳(メタデータ) (2020-09-15T09:33:20Z) - Graph Inference Learning for Semi-supervised Classification [50.55765399527556]
半教師付きノード分類の性能を高めるためのグラフ推論学習フレームワークを提案する。
推論過程の学習には,トレーニングノードから検証ノードへの構造関係のメタ最適化を導入する。
4つのベンチマークデータセットの総合的な評価は、最先端の手法と比較して提案したGILの優位性を示している。
論文 参考訳(メタデータ) (2020-01-17T02:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。