論文の概要: Multi-Scale Contrastive Siamese Networks for Self-Supervised Graph
Representation Learning
- arxiv url: http://arxiv.org/abs/2105.05682v1
- Date: Wed, 12 May 2021 14:20:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 18:11:58.750473
- Title: Multi-Scale Contrastive Siamese Networks for Self-Supervised Graph
Representation Learning
- Title(参考訳): 自己教師付きグラフ表現学習のためのマルチスケールコントラストシームネットワーク
- Authors: Ming Jin, Yizhen Zheng, Yuan-Fang Li, Chen Gong, Chuan Zhou, Shirui
Pan
- Abstract要約: マルチスケールのコントラスト学習によるシームズ自己蒸留の強化により,ノード表現を学習するための新しい自己教師型アプローチを提案する。
提案手法は,新しい最先端の成果を達成し,半教師ありの成果を大きなマージンで上回っている。
- 参考スコア(独自算出の注目度): 48.09362183184101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph representation learning plays a vital role in processing
graph-structured data. However, prior arts on graph representation learning
heavily rely on the labeling information. To overcome this problem, inspired by
the recent success of graph contrastive learning and Siamese networks in visual
representation learning, we propose a novel self-supervised approach in this
paper to learn node representations by enhancing Siamese self-distillation with
multi-scale contrastive learning. Specifically, we first generate two augmented
views from the input graph based on local and global perspectives. Then, we
employ two objectives called cross-view and cross-network contrastiveness to
maximize the agreement between node representations across different views and
networks. To demonstrate the effectiveness of our approach, we perform
empirical experiments on five real-world datasets. Our method not only achieves
new state-of-the-art results but also surpasses some semi-supervised
counterparts by large margins.
- Abstract(参考訳): グラフ表現学習は、グラフ構造化データの処理において重要な役割を果たす。
しかし、グラフ表現学習の先行技術はラベル情報に大きく依存している。
本稿では,近年のグラフコントラスト学習とシームズネットワークの視覚表現学習の成功に触発されて,シームズ自己蒸留をマルチスケールコントラスト学習で強化してノード表現を学習する,新たな自己教師型アプローチを提案する。
具体的には、まず、局所的な視点とグローバルな視点に基づいて、入力グラフから2つの拡張ビューを生成する。
次に、異なるビューとネットワーク間のノード表現間の合意を最大化するために、クロスビューとクロスネットワークコントラストネスという2つの目的を用いる。
提案手法の有効性を示すため,実世界の5つのデータセットを用いて実験を行った。
提案手法は, 最新の結果を得るだけでなく, 半教師が有する結果を大きく超えている。
関連論文リスト
- GPS: Graph Contrastive Learning via Multi-scale Augmented Views from
Adversarial Pooling [23.450755275125577]
自己教師付きグラフ表現学習は、バイオインフォマティクスやソーシャルネットワークなど、様々な分野において、最近かなりの可能性を秘めている。
本稿では,これらの問題に対処するための新しいアプローチとして Graph Pooling ContraSt (GPS) を提案する。
グラフプーリングは、冗長性の除去によってグラフを適応的に粗いものにすることができることから、グラフプーリングを再考し、それを活用して、マルチスケールのポジティブビューを自動的に生成する。
論文 参考訳(メタデータ) (2024-01-29T10:00:53Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Deep Contrastive Learning for Multi-View Network Embedding [20.035449838566503]
マルチビューネットワーク埋め込みは、ネットワーク内のノードを低次元ベクトルに投影することを目的としている。
ほとんどの対照的な学習ベースの手法は、主に高品質なグラフ埋め込みに依存している。
マルチビューネットワーク埋め込み(CREME)のための新しいノード間コントラスト学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-08-16T06:29:18Z) - Group Contrastive Self-Supervised Learning on Graphs [101.45974132613293]
グラフ上での自己教師型学習をコントラッシブ手法を用いて研究する。
複数の部分空間におけるグラフの対比により、グラフエンコーダはより豊富な特徴を捉えることができる。
論文 参考訳(メタデータ) (2021-07-20T22:09:21Z) - Graph Representation Learning by Ensemble Aggregating Subgraphs via
Mutual Information Maximization [5.419711903307341]
グラフニューラルネットワークが学習するグラフレベルの表現を高めるための自己監視型学習法を提案する。
グラフ構造を網羅的に理解するために,サブグラフ法のようなアンサンブル学習を提案する。
また, 効率的かつ効果的な対位学習を実現するために, ヘッドテールコントラストサンプル構築法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:12Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Deep Graph Contrastive Representation Learning [23.37786673825192]
ノードレベルでの対照的な目的を生かして,教師なしグラフ表現学習のための新しいフレームワークを提案する。
具体的には,この2つのビューにおけるノード表現の一致を最大化することにより,ノード表現の破損と学習によって2つのグラフビューを生成する。
我々は,様々な実世界のデータセットを用いて,帰納的および帰納的学習タスクの実証実験を行った。
論文 参考訳(メタデータ) (2020-06-07T11:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。