論文の概要: Graph Representation Learning by Ensemble Aggregating Subgraphs via
Mutual Information Maximization
- arxiv url: http://arxiv.org/abs/2103.13125v1
- Date: Wed, 24 Mar 2021 12:06:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:45:48.494669
- Title: Graph Representation Learning by Ensemble Aggregating Subgraphs via
Mutual Information Maximization
- Title(参考訳): 相互情報最大化による部分グラフの集合化によるグラフ表現学習
- Authors: Chenguang Wang and Ziwen Liu
- Abstract要約: グラフニューラルネットワークが学習するグラフレベルの表現を高めるための自己監視型学習法を提案する。
グラフ構造を網羅的に理解するために,サブグラフ法のようなアンサンブル学習を提案する。
また, 効率的かつ効果的な対位学習を実現するために, ヘッドテールコントラストサンプル構築法を提案する。
- 参考スコア(独自算出の注目度): 5.419711903307341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks have shown tremendous potential on dealing with garph
data and achieved outstanding results in recent years. In some research areas,
labelling data are hard to obtain for technical reasons, which necessitates the
study of unsupervised and semi-superivsed learning on graphs. Therefore,
whether the learned representations can capture the intrinsic feature of the
original graphs will be the issue in this area. In this paper, we introduce a
self-supervised learning method to enhance the representations of graph-level
learned by Graph Neural Networks. To fully capture the original attributes of
the graph, we use three information aggregators: attribute-conv, layer-conv and
subgraph-conv to gather information from different aspects. To get a
comprehensive understanding of the graph structure, we propose an
ensemble-learning like subgraph method. And to achieve efficient and effective
contrasive learning, a Head-Tail contrastive samples construction method is
proposed to provide more abundant negative samples. By virtue of all proposed
components which can be generalized to any Graph Neural Networks, in
unsupervised case, we achieve new state of the art results in several
benchmarks. We also evaluate our model on semi-supervised learning tasks and
make a fair comparison to state of the art semi-supervised methods.
- Abstract(参考訳): グラフニューラルネットワークは、ガーフデータを扱う上で大きな可能性を示し、近年は優れた成果を上げている。
一部の研究領域では、グラフ上での教師なしおよび半超越学習の研究を必要とする技術的理由からラベル付けデータを得るのは難しい。
したがって、学習した表現が元のグラフの本質的な特徴を捉えることができるかどうかがこの領域で問題となる。
本稿では,グラフニューラルネットワークが学習したグラフレベルの表現を強化するための自己教師付き学習手法を提案する。
グラフの本来の属性をフルに把握するために、属性-conv、レイヤ-conv、サブグラフ-convという3つの情報アグリゲータを使用して異なる側面から情報を集める。
グラフ構造を網羅的に理解するために,サブグラフ法のようなアンサンブル学習を提案する。
また,効率的かつ効果的な対位学習を実現するために,より豊富な負のサンプルを提供するために,ヘッドテールコントラスト型サンプル構築法を提案する。
任意のグラフニューラルネットワークに一般化可能なすべてのコンポーネントにより、教師なしの場合、いくつかのベンチマークで新たな最先端の成果が得られる。
また, 半教師付き学習課題におけるモデルの評価を行い, 半教師付き手法の状況と比較した。
関連論文リスト
- Knowledge Probing for Graph Representation Learning [12.960185655357495]
グラフ表現学習において,グラフ学習手法のファミリーが異なるレベルの知識を符号化したかどうかを調査・解釈するための新しいグラフ探索フレームワーク(GraphProbe)を提案する。
グラフの固有の性質に基づいて,異なる視点からグラフ表現学習過程を体系的に研究する3つのプローブを設計する。
本研究では、ランダムウォークに基づく9つの代表的なグラフ学習手法、基本グラフニューラルネットワーク、自己教師付きグラフ手法を用いて、詳細な評価ベンチマークを構築し、ノード分類、リンク予測、グラフ分類のための6つのベンチマークデータセットでそれらを探索する。
論文 参考訳(メタデータ) (2024-08-07T16:27:45Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - ARIEL: Adversarial Graph Contrastive Learning [51.14695794459399]
ARIELは、ノードレベルとグラフレベルの両方の分類タスクにおいて、現在のグラフコントラスト学習法よりも一貫して優れている。
ARIELは敵の攻撃に対してより堅牢である。
論文 参考訳(メタデータ) (2022-08-15T01:24:42Z) - Cross-view Self-Supervised Learning on Heterogeneous Graph Neural
Network via Bootstrapping [0.0]
不均一グラフニューラルネットワークは、優れた能力を持つ異種グラフの情報を表現することができる。
本稿では,多数のペアを生成することなく優れた表現を生成できるシステムを提案する。
提案モデルは,様々な実世界のデータセットにおいて,他の手法よりも最先端の性能を示した。
論文 参考訳(メタデータ) (2022-01-10T13:36:05Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。