論文の概要: Graph Self-supervised Learning with Accurate Discrepancy Learning
- arxiv url: http://arxiv.org/abs/2202.02989v1
- Date: Mon, 7 Feb 2022 08:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 14:38:17.093545
- Title: Graph Self-supervised Learning with Accurate Discrepancy Learning
- Title(参考訳): 精度不一致学習を用いたグラフ自己教師付き学習
- Authors: Dongki Kim, Jinheon Baek, Sung Ju Hwang
- Abstract要約: 離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
- 参考スコア(独自算出の注目度): 64.69095775258164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised learning of graph neural networks (GNNs) aims to learn an
accurate representation of the graphs in an unsupervised manner, to obtain
transferable representations of them for diverse downstream tasks. Predictive
learning and contrastive learning are the two most prevalent approaches for
graph self-supervised learning. However, they have their own drawbacks. While
the predictive learning methods can learn the contextual relationships between
neighboring nodes and edges, they cannot learn global graph-level similarities.
Contrastive learning, while it can learn global graph-level similarities, its
objective to maximize the similarity between two differently perturbed graphs
may result in representations that cannot discriminate two similar graphs with
different properties. To tackle such limitations, we propose a framework that
aims to learn the exact discrepancy between the original and the perturbed
graphs, coined as Discrepancy-based Self-supervised LeArning (D-SLA).
Specifically, we create multiple perturbations of the given graph with varying
degrees of similarity and train the model to predict whether each graph is the
original graph or a perturbed one. Moreover, we further aim to accurately
capture the amount of discrepancy for each perturbed graph using the graph edit
distance. We validate our method on various graph-related downstream tasks,
including molecular property prediction, protein function prediction, and link
prediction tasks, on which our model largely outperforms relevant baselines.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の自己教師付き学習は、教師なしの方法でグラフの正確な表現を学習することを目的としており、下流の様々なタスクに対してそれらの伝達可能な表現を得る。
予測学習とコントラスト学習はグラフ自己教師学習の2つの最も一般的なアプローチである。
しかし、彼ら独自の欠点がある。
予測学習手法は隣接ノードとエッジ間の文脈的関係を学習できるが,グローバルグラフレベルの類似性は学習できない。
対照的に、グローバルグラフレベルの類似性を学習できるが、2つの異なる摂動グラフ間の類似性を最大化する目的は、異なる性質を持つ2つの類似グラフを識別できない表現をもたらす可能性がある。
このような制約に対処するために、D-SLA(Drecrepancy-based Self-supervised LeArning)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
具体的には、与えられたグラフの様々な摂動を類似度で生成し、各グラフが元のグラフか摂動グラフかを予測するようモデルを訓練する。
さらに,グラフ編集距離を用いて各摂動グラフの差分量を正確に把握することを目的とする。
提案手法は,分子特性予測,タンパク質機能予測,リンク予測タスクなど,様々なグラフ関連下流タスクにおいて検証を行い,本モデルが関連するベースラインを圧倒的に上回っていることを示す。
関連論文リスト
- Imbalanced Graph Classification with Multi-scale Oversampling Graph Neural Networks [25.12261412297796]
本稿では,表現力のあるマイノリティグラフ表現を学習するマルチスケールオーバーサンプリンググラフニューラルネットワーク(MOSGNN)を提案する。
サブグラフレベル、グラフレベル、ペアワイズグラフ学習タスクを共同で最適化することで、これを実現する。
16のバランスの取れないグラフデータセットの実験では、MOSGNN i)が5つの最先端モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2024-05-08T09:16:54Z) - There is more to graphs than meets the eye: Learning universal features with self-supervision [2.882036130110936]
本稿では,複数のグラフに一般化可能な自己スーパービジョンによる特徴学習の課題について検討する。
提案手法では,(1)下流ノード分類の性能向上,(2)同じ家系の未確認グラフに再利用可能な学習機能,(3)より効率的なトレーニング,(4)コンパクトで一般化可能なモデルを提案する。
論文 参考訳(メタデータ) (2023-05-31T14:08:48Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - CGMN: A Contrastive Graph Matching Network for Self-Supervised Graph
Similarity Learning [65.1042892570989]
自己教師付きグラフ類似性学習のためのコントラストグラフマッチングネットワーク(CGMN)を提案する。
我々は,効率的なノード表現学習のために,クロスビューインタラクションとクロスグラフインタラクションという2つの戦略を用いる。
我々はノード表現をグラフ類似性計算のためのプール演算によりグラフレベル表現に変換する。
論文 参考訳(メタデータ) (2022-05-30T13:20:26Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z) - GraphOpt: Learning Optimization Models of Graph Formation [72.75384705298303]
本稿では,グラフ構造形成の暗黙的モデルを学ぶエンドツーエンドフレームワークを提案し,その基盤となる最適化機構を明らかにする。
学習した目的は、観測されたグラフプロパティの説明として機能し、ドメイン内の異なるグラフを渡すために自分自身を貸すことができる。
GraphOptは、グラフ内のリンク生成をシーケンシャルな意思決定プロセスとして、最大エントロピー逆強化学習アルゴリズムを用いて解決する。
論文 参考訳(メタデータ) (2020-07-07T16:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。