論文の概要: Coarse-to-Fine Contrastive Learning on Graphs
- arxiv url: http://arxiv.org/abs/2212.06423v1
- Date: Tue, 13 Dec 2022 08:17:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:14:44.401170
- Title: Coarse-to-Fine Contrastive Learning on Graphs
- Title(参考訳): グラフ上での粗相関学習
- Authors: Peiyao Zhao, Yuangang Pan, Xin Li, Xu Chen, Ivor W. Tsang, and Lejian
Liao
- Abstract要約: ノード表現を自己管理的に学習するために、さまざまなグラフ拡張戦略が採用されている。
我々は,異なるノード間の識別情報を確実に維持するために,自己評価パラダイムを導入する。
各種ベンチマークデータセットの実験結果から,提案アルゴリズムの有効性を検証した。
- 参考スコア(独自算出の注目度): 38.41992365090377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the impressive success of contrastive learning (CL), a variety of
graph augmentation strategies have been employed to learn node representations
in a self-supervised manner. Existing methods construct the contrastive samples
by adding perturbations to the graph structure or node attributes. Although
impressive results are achieved, it is rather blind to the wealth of prior
information assumed: with the increase of the perturbation degree applied on
the original graph, 1) the similarity between the original graph and the
generated augmented graph gradually decreases; 2) the discrimination between
all nodes within each augmented view gradually increases. In this paper, we
argue that both such prior information can be incorporated (differently) into
the contrastive learning paradigm following our general ranking framework. In
particular, we first interpret CL as a special case of learning to rank (L2R),
which inspires us to leverage the ranking order among positive augmented views.
Meanwhile, we introduce a self-ranking paradigm to ensure that the
discriminative information among different nodes can be maintained and also be
less altered to the perturbations of different degrees. Experiment results on
various benchmark datasets verify the effectiveness of our algorithm compared
with the supervised and unsupervised models.
- Abstract(参考訳): 対照的学習(CL)の成功に触発されて、ノード表現を自己管理的に学習するために様々なグラフ拡張戦略が採用されている。
既存の方法は、グラフ構造やノード属性に摂動を追加することで、対照的なサンプルを構築する。
印象的な結果が得られるが、元のグラフに適用される摂動度が増加すると、想定される事前情報の豊富さに欠ける。
1)原グラフと生成した拡張グラフとの類似度は徐々に低下する。
2) 各拡張ビュー内のノード間の識別は徐々に増加する。
本稿では,これらの事前情報の両方を,一般的なランキングフレームワークに従えば,対照的な学習パラダイムに組み込むことができると論じる。
特に,まずCLをランク付け学習(L2R)の特別な場合と解釈し,肯定的な拡張ビューのランク付け順序を活用できるようにする。
一方,我々は,異なるノード間の識別情報を維持可能とし,また,異なる次数の摂動に対して変化の少ない自己組織化パラダイムを導入する。
様々なベンチマークデータセットにおける実験結果は,教師付きモデルおよび教師なしモデルと比較して,アルゴリズムの有効性を検証する。
関連論文リスト
- Subgraph Networks Based Contrastive Learning [5.736011243152416]
グラフコントラスト学習(GCL)は、注釈付きデータ不足の問題を解決する。
既存のGCL手法の多くは、グラフ拡張戦略や相互情報推定操作の設計に重点を置いている。
サブグラフネットワークに基づくコントラスト学習(SGNCL)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-06T08:52:44Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Graph Contrastive Learning with Implicit Augmentations [36.57536688367965]
Inlicit Graph Contrastive Learning (iGCL)は、グラフトポロジ構造を再構築することにより、変分グラフオートエンコーダから学習した潜時空間の増大を利用する。
グラフレベルとノードレベルの両方のタスクに対する実験結果から,提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-07T17:34:07Z) - ARIEL: Adversarial Graph Contrastive Learning [51.14695794459399]
ARIELは、ノードレベルとグラフレベルの両方の分類タスクにおいて、現在のグラフコントラスト学習法よりも一貫して優れている。
ARIELは敵の攻撃に対してより堅牢である。
論文 参考訳(メタデータ) (2022-08-15T01:24:42Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Graph Contrastive Learning with Adaptive Augmentation [23.37786673825192]
本稿では,適応的拡張を用いた新しいグラフコントラスト表現学習法を提案する。
具体的には,ノードの集中度に基づく拡張スキームを設計し,重要な結合構造を明らかにする。
提案手法は,既存の最先端のベースラインを一貫して上回り,教師付きベースラインを超えている。
論文 参考訳(メタデータ) (2020-10-27T15:12:21Z) - Iterative Graph Self-Distillation [161.04351580382078]
我々は、IGSD(Iterative Graph Self-Distillation)と呼ばれる新しい教師なしグラフ学習パラダイムを提案する。
IGSDは、グラフ拡張による教師/学生の蒸留を反復的に行う。
我々は,教師なしと半教師なしの両方の設定において,さまざまなグラフデータセットに対して,有意かつ一貫したパフォーマンス向上を実現していることを示す。
論文 参考訳(メタデータ) (2020-10-23T18:37:06Z) - GraphCL: Contrastive Self-Supervised Learning of Graph Representations [20.439666392958284]
本稿では,ノード表現を自己教師型で学習するための一般的なフレームワークであるGraph Contrastive Learning (GraphCL)を提案する。
グラフニューラルネットワークを用いて、同じノードの2つの表現を生成し、対照的な学習損失を利用して両者の一致を最大化する。
帰納的学習と帰納的学習の両方において,本手法がノード分類ベンチマークにおいて教師なし学習の最先端性を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2020-07-15T22:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。