論文の概要: Self-supervised Graph-level Representation Learning with Local and
Global Structure
- arxiv url: http://arxiv.org/abs/2106.04113v1
- Date: Tue, 8 Jun 2021 05:25:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 15:47:48.116283
- Title: Self-supervised Graph-level Representation Learning with Local and
Global Structure
- Title(参考訳): 局所構造とグローバル構造を用いた自己教師付きグラフレベル表現学習
- Authors: Minghao Xu, Hang Wang, Bingbing Ni, Hongyu Guo, Jian Tang
- Abstract要約: 自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
- 参考スコア(独自算出の注目度): 71.45196938842608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies unsupervised/self-supervised whole-graph representation
learning, which is critical in many tasks such as molecule properties
prediction in drug and material discovery. Existing methods mainly focus on
preserving the local similarity structure between different graph instances but
fail to discover the global semantic structure of the entire data set. In this
paper, we propose a unified framework called Local-instance and Global-semantic
Learning (GraphLoG) for self-supervised whole-graph representation learning.
Specifically, besides preserving the local similarities, GraphLoG introduces
the hierarchical prototypes to capture the global semantic clusters. An
efficient online expectation-maximization (EM) algorithm is further developed
for learning the model. We evaluate GraphLoG by pre-training it on massive
unlabeled graphs followed by fine-tuning on downstream tasks. Extensive
experiments on both chemical and biological benchmark data sets demonstrate the
effectiveness of the proposed approach.
- Abstract(参考訳): 本稿では,薬物の分子特性予測や物質発見など多くのタスクにおいて重要な,教師なし/自己教師付き全グラフ表現学習について検討する。
既存の方法は、主に異なるグラフインスタンス間の局所的類似性構造を保存することに重点を置いているが、データセット全体のグローバルな意味構造を見つけることに失敗している。
本稿では,自己教師付き全グラフ表現学習のための,ローカルインスティスタンスとグローバルセマンティクス学習(graphlog)と呼ばれる統一フレームワークを提案する。
具体的には、ローカルの類似性を保存することに加えて、GraphLoGはグローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプを導入している。
モデル学習のための効率的なオンライン期待最大化(em)アルゴリズムも開発されている。
大規模未ラベルグラフ上での事前学習と,下流タスクの微調整により,GraphLoGを評価する。
化学および生物学的ベンチマークデータセットの広範な実験により,提案手法の有効性が示された。
関連論文リスト
- RAGraph: A General Retrieval-Augmented Graph Learning Framework [35.25522856244149]
我々は、RAGraph(General Retrieval-Augmented Graph Learning)と呼ばれる新しいフレームワークを紹介する。
RAGraphは、一般的なグラフ基盤モデルに外部グラフデータを導入し、目に見えないシナリオにおけるモデルの一般化を改善する。
推論中、RAGraphは下流タスクにおける重要な類似性に基づいて、似たようなおもちゃのグラフを順応的に検索する。
論文 参考訳(メタデータ) (2024-10-31T12:05:21Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Bures-Wasserstein Means of Graphs [60.42414991820453]
本研究では,スムーズなグラフ信号分布の空間への埋め込みを通じて,グラフ平均を定義する新しいフレームワークを提案する。
この埋め込み空間において平均を求めることにより、構造情報を保存する平均グラフを復元することができる。
我々は,新しいグラフの意味の存在と特異性を確立し,それを計算するための反復アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-05-31T11:04:53Z) - Structure-Preserving Graph Representation Learning [43.43429108503634]
本研究では,グラフの構造情報を完全にキャプチャする構造保存グラフ表現学習(SPGRL)手法を提案する。
具体的には、元のグラフの不確かさと誤情報を減らすために、k-Nearest Neighbor法による補完的なビューとして特徴グラフを構築する。
本手法は、半教師付きノード分類タスクにおいて非常に優れた性能を示し、グラフ構造やノード特徴に対するノイズ摂動下での堅牢性に優れる。
論文 参考訳(メタデータ) (2022-09-02T02:49:19Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Structure-Enhanced Meta-Learning For Few-Shot Graph Classification [53.54066611743269]
本研究では,数点グラフ分類の解法のためのメトリベースメタラーニングの可能性を検討する。
SMFGINというGINの実装は、ChemblとTRIANGLESの2つのデータセットでテストされている。
論文 参考訳(メタデータ) (2021-03-05T09:03:03Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z) - Deep graph learning for semi-supervised classification [11.260083018676548]
グラフ学習(GL)は、グラフ畳み込みネットワーク(GCN)に基づくデータの分布構造(グラフ構造)を動的に捉えることができる
既存の手法は主に計算層と関連する損失をGCNに組み合わせ、グローバルグラフや局所グラフを探索する。
半教師付き分類において,より優れたグラフ表現を求めるためにディープグラフ学習(DGL)を提案する。
論文 参考訳(メタデータ) (2020-05-29T05:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。