論文の概要: Graph Contrastive Learning with Implicit Augmentations
- arxiv url: http://arxiv.org/abs/2211.03710v1
- Date: Mon, 7 Nov 2022 17:34:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 16:11:23.311600
- Title: Graph Contrastive Learning with Implicit Augmentations
- Title(参考訳): 暗黙的拡張によるグラフコントラスト学習
- Authors: Huidong Liang, Xingjian Du, Bilei Zhu, Zejun Ma, Ke Chen, Junbin Gao
- Abstract要約: Inlicit Graph Contrastive Learning (iGCL)は、グラフトポロジ構造を再構築することにより、変分グラフオートエンコーダから学習した潜時空間の増大を利用する。
グラフレベルとノードレベルの両方のタスクに対する実験結果から,提案手法が最先端の性能を実現することを示す。
- 参考スコア(独自算出の注目度): 36.57536688367965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing graph contrastive learning methods rely on augmentation techniques
based on random perturbations (e.g., randomly adding or dropping edges and
nodes). Nevertheless, altering certain edges or nodes can unexpectedly change
the graph characteristics, and choosing the optimal perturbing ratio for each
dataset requires onerous manual tuning. In this paper, we introduce Implicit
Graph Contrastive Learning (iGCL), which utilizes augmentations in the latent
space learned from a Variational Graph Auto-Encoder by reconstructing graph
topological structure. Importantly, instead of explicitly sampling
augmentations from latent distributions, we further propose an upper bound for
the expected contrastive loss to improve the efficiency of our learning
algorithm. Thus, graph semantics can be preserved within the augmentations in
an intelligent way without arbitrary manual design or prior human knowledge.
Experimental results on both graph-level and node-level tasks show that the
proposed method achieves state-of-the-art performance compared to other
benchmarks, where ablation studies in the end demonstrate the effectiveness of
modules in iGCL.
- Abstract(参考訳): 既存のグラフコントラスト学習法は、ランダムな摂動(例えば、エッジとノードをランダムに追加またはドロップする)に基づく拡張技術に依存している。
それでも、特定のエッジやノードを変更することで予期せぬグラフ特性が変化し、データセットごとに最適な摂動比を選択するには、簡単な手動チューニングが必要となる。
本稿では,グラフトポロジ構造を再構築することにより,変分グラフオートエンコーダから学習した潜時空間の増分を利用するImplicit Graph Contrastive Learning (iGCL)を提案する。
重要なのは,潜在分布からの補足を明示的にサンプリングする代わりに,学習アルゴリズムの効率を改善するために,期待するコントラスト損失の上限を提案することである。
したがって、グラフのセマンティクスは任意の手動設計や事前の人間の知識なしに、知的な方法で拡張内で保存することができる。
グラフレベルとノードレベルの両方のタスクに対する実験結果から,提案手法が他のベンチマークと比較して最先端性能を実現していることが明らかとなった。
関連論文リスト
- Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Randomized Schur Complement Views for Graph Contrastive Learning [0.0]
グラフコントラスト学習(GCL)のためのSchur補数に基づくランダム化トポロジカル拡張器を提案する。
グラフラプラシア行列が与えられたとき、この手法はシュア補数の不偏近似を生成し、対応するグラフを拡張ビューとして扱う。
論文 参考訳(メタデータ) (2023-06-06T20:35:20Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Coarse-to-Fine Contrastive Learning on Graphs [38.41992365090377]
ノード表現を自己管理的に学習するために、さまざまなグラフ拡張戦略が採用されている。
我々は,異なるノード間の識別情報を確実に維持するために,自己評価パラダイムを導入する。
各種ベンチマークデータセットの実験結果から,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2022-12-13T08:17:20Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Graph Contrastive Learning with Adaptive Augmentation [23.37786673825192]
本稿では,適応的拡張を用いた新しいグラフコントラスト表現学習法を提案する。
具体的には,ノードの集中度に基づく拡張スキームを設計し,重要な結合構造を明らかにする。
提案手法は,既存の最先端のベースラインを一貫して上回り,教師付きベースラインを超えている。
論文 参考訳(メタデータ) (2020-10-27T15:12:21Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。