論文の概要: AutoGCL: Automated Graph Contrastive Learning via Learnable View
Generators
- arxiv url: http://arxiv.org/abs/2109.10259v1
- Date: Tue, 21 Sep 2021 15:34:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:15:58.050139
- Title: AutoGCL: Automated Graph Contrastive Learning via Learnable View
Generators
- Title(参考訳): AutoGCL:学習可能なビュージェネレータによるグラフコントラスト学習
- Authors: Yihang Yin, Qingzhong Wang, Siyu Huang, Haoyi Xiong, Xiang Zhang
- Abstract要約: 本稿では,Automated Graph Contrastive Learning (AutoGCL) という新しいフレームワークを提案する。
AutoGCLは、オート拡張戦略によって編成された学習可能なグラフビュージェネレータのセットを採用している。
半教師付き学習、教師なし学習、移動学習の実験は、グラフの対照的な学習における最先端技術よりも、我々のフレームワークの優位性を証明している。
- 参考スコア(独自算出の注目度): 22.59182542071303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning has been widely applied to graph representation
learning, where the view generators play a vital role in generating effective
contrastive samples. Most of the existing contrastive learning methods employ
pre-defined view generation methods, e.g., node drop or edge perturbation,
which usually cannot adapt to input data or preserve the original semantic
structures well. To address this issue, we propose a novel framework named
Automated Graph Contrastive Learning (AutoGCL) in this paper. Specifically,
AutoGCL employs a set of learnable graph view generators orchestrated by an
auto augmentation strategy, where every graph view generator learns a
probability distribution of graphs conditioned by the input. While the graph
view generators in AutoGCL preserve the most representative structures of the
original graph in generation of every contrastive sample, the auto augmentation
learns policies to introduce adequate augmentation variances in the whole
contrastive learning procedure. Furthermore, AutoGCL adopts a joint training
strategy to train the learnable view generators, the graph encoder, and the
classifier in an end-to-end manner, resulting in topological heterogeneity yet
semantic similarity in the generation of contrastive samples. Extensive
experiments on semi-supervised learning, unsupervised learning, and transfer
learning demonstrate the superiority of our AutoGCL framework over the
state-of-the-arts in graph contrastive learning. In addition, the visualization
results further confirm that the learnable view generators can deliver more
compact and semantically meaningful contrastive samples compared against the
existing view generation methods.
- Abstract(参考訳): コントラスト学習はグラフ表現学習に広く適用されており、ビュージェネレータは効果的なコントラストサンプルを生成する上で重要な役割を果たす。
既存のコントラスト学習手法の多くは、例えばノードのドロップやエッジの摂動といった定義済みのビュー生成手法を採用しており、通常は入力データに適応できない。
この問題に対処するため,本稿ではAutomated Graph Contrastive Learning(AutoGCL)という新しいフレームワークを提案する。
具体的には、autogclは学習可能なグラフビュー生成器のセットを自動拡張戦略で編成し、各グラフビュー生成器は入力によって条件付けられたグラフの確率分布を学習する。
AutoGCLのグラフビュージェネレータは、全ての対照的なサンプルの生成において、元のグラフの最も代表的な構造を保っているが、オート拡張は、対照的な学習手順全体に適切な拡張分散を導入するためのポリシーを学ぶ。
さらに、AutoGCLは学習可能なビュージェネレータ、グラフエンコーダ、分類器をエンドツーエンドで訓練するための共同トレーニング戦略を採用しており、トポロジ的不均一性は対照的なサンプルの生成において意味的な類似性をもたらす。
半教師付き学習,教師なし学習,移動学習に関する広範な実験は,グラフコントラスト学習における最先端技術よりもAutoGCLフレームワークの方が優れていることを示す。
さらに,学習可能なビュー生成器は,既存のビュー生成手法と比較して,よりコンパクトで意味的に意味のあるコントラストサンプルを提供できることを確認した。
関連論文リスト
- Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - Generative-Enhanced Heterogeneous Graph Contrastive Learning [11.118517297006894]
異種グラフ(HG)は、実世界の複雑な関係をマルチタイプのノードとエッジによって効果的にモデル化することができる。
近年、自己教師型学習にインスパイアされたHGNN(Heterogeneous Graphs Neural Networks)は、下流タスクにデータ拡張とコントラッシブ・ディミネータを活用することで大きな可能性を示している。
本稿では,GHGCL(Generative-Enhanced Heterogeneous Graph Contrastive Learning)を提案する。
論文 参考訳(メタデータ) (2024-04-03T15:31:18Z) - Hybrid Augmented Automated Graph Contrastive Learning [3.785553471764994]
本稿では,Hybrid Augmented Automated Graph Contrastive Learning (HAGCL) というフレームワークを提案する。
HAGCLは機能レベルの学習可能なビュージェネレータとエッジレベルの学習可能なビュージェネレータで構成される。
特徴とトポロジの観点から最も意味のある構造を学ぶことを保証します。
論文 参考訳(メタデータ) (2023-03-24T03:26:20Z) - Self-supervised Semi-implicit Graph Variational Auto-encoders with
Masking [18.950919307926824]
自己教師付き変分グラフオートエンコーダ(VGAE)のファミリに基づくSeeeGeraモデルを提案する。
SeeGeraは、エンコーダのノードと機能の両方を同時に埋め込み、デコーダのリンクと機能の両方を再構築する。
われわれは、SeeGeraと9つの最先端ライバルを比較した広範な実験を行っている。
論文 参考訳(メタデータ) (2023-01-29T15:00:43Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - Graph Contrastive Learning with Personalized Augmentation [17.714437631216516]
グラフの教師なし表現を学習するための有効なツールとして,グラフコントラスト学習(GCL)が登場した。
我々は、textitPersonalized textitAugmentation (GPA) を用いたtextitGraph コントラスト学習と呼ばれる原則付きフレームワークを提案する。
GPAは、学習可能な拡張セレクタを介して、そのトポロジとノード属性に基づいて、各グラフの調整された拡張戦略を推論する。
論文 参考訳(メタデータ) (2022-09-14T11:37:48Z) - Geometry Contrastive Learning on Heterogeneous Graphs [50.58523799455101]
本稿では,幾何学コントラスト学習(Geometry Contrastive Learning, GCL)と呼ばれる,新しい自己指導型学習手法を提案する。
GCLはユークリッドと双曲的な視点からヘテロジニアスグラフを同時に見ることができ、リッチな意味論と複雑な構造をモデル化する能力の強い融合を目指している。
4つのベンチマークデータセットの大規模な実験は、提案手法が強いベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-25T03:54:53Z) - Let Invariant Rationale Discovery Inspire Graph Contrastive Learning [98.10268114789775]
ハイパフォーマンスな拡張は、インスタンス識別に関するアンカーグラフの健全な意味を保存すべきである。
新たなフレームワーク Rationale-aware Graph Contrastive Learning (RGCL) を提案する。
RGCLは有理数生成器を使用して、グラフのインスタンス識別に関する健全な特徴を論理として明らかにし、対照的な学習のための有理数認識ビューを生成する。
論文 参考訳(メタデータ) (2022-06-16T01:28:40Z) - GraphMAE: Self-Supervised Masked Graph Autoencoders [52.06140191214428]
本稿では,自己教師付きグラフ学習における課題を軽減するマスク付きグラフオートエンコーダGraphMAEを提案する。
我々は3つの異なるグラフ学習タスクに対して、21の公開データセットに関する広範な実験を行った。
その結果,GraphMAEはグラフオートエンコーダであり,設計に注意を払っている。
論文 参考訳(メタデータ) (2022-05-22T11:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。