論文の概要: Machine Learning on Graphs: A Model and Comprehensive Taxonomy
- arxiv url: http://arxiv.org/abs/2005.03675v3
- Date: Tue, 12 Apr 2022 03:24:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 22:22:51.747102
- Title: Machine Learning on Graphs: A Model and Comprehensive Taxonomy
- Title(参考訳): グラフ上の機械学習:モデルと包括的分類法
- Authors: Ines Chami, Sami Abu-El-Haija, Bryan Perozzi, Christopher R\'e, Kevin
Murphy
- Abstract要約: グラフニューラルネットワーク、ネットワーク埋め込み、グラフ正規化モデルの間のギャップを埋める。
具体的には、グラフ上の半教師付き学習のための一般的なアルゴリズムを一般化するグラフデコーダモデル( GraphEDM)を提案する。
- 参考スコア(独自算出の注目度): 22.73365477040205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a surge of recent interest in learning representations for
graph-structured data. Graph representation learning methods have generally
fallen into three main categories, based on the availability of labeled data.
The first, network embedding (such as shallow graph embedding or graph
auto-encoders), focuses on learning unsupervised representations of relational
structure. The second, graph regularized neural networks, leverages graphs to
augment neural network losses with a regularization objective for
semi-supervised learning. The third, graph neural networks, aims to learn
differentiable functions over discrete topologies with arbitrary structure.
However, despite the popularity of these areas there has been surprisingly
little work on unifying the three paradigms. Here, we aim to bridge the gap
between graph neural networks, network embedding and graph regularization
models. We propose a comprehensive taxonomy of representation learning methods
for graph-structured data, aiming to unify several disparate bodies of work.
Specifically, we propose a Graph Encoder Decoder Model (GRAPHEDM), which
generalizes popular algorithms for semi-supervised learning on graphs (e.g.
GraphSage, Graph Convolutional Networks, Graph Attention Networks), and
unsupervised learning of graph representations (e.g. DeepWalk, node2vec, etc)
into a single consistent approach. To illustrate the generality of this
approach, we fit over thirty existing methods into this framework. We believe
that this unifying view both provides a solid foundation for understanding the
intuition behind these methods, and enables future research in the area.
- Abstract(参考訳): 近年,グラフ構造化データの学習表現への関心が高まっている。
グラフ表現学習法は一般にラベル付きデータの可用性に基づく3つの主要なカテゴリに分類されている。
最初のネットワーク埋め込み(浅いグラフ埋め込みやグラフオートエンコーダなど)は、関係構造の教師なし表現の学習に焦点を当てている。
第2のグラフ正規化ニューラルネットワークは、半教師付き学習のための正規化目標でニューラルネットワーク損失を増やすためにグラフを活用する。
3番目のグラフニューラルネットワークは、任意の構造を持つ離散トポロジ上で微分可能関数を学ぶことを目的としている。
しかし、これらの分野の人気にもかかわらず、3つのパラダイムを統合する作業は驚くほど少ない。
ここでは,グラフニューラルネットワーク,ネットワーク埋め込み,グラフ正規化モデル間のギャップを埋めることを目的とする。
本稿では,グラフ構造化データに対する表現学習手法の包括的分類法を提案する。
具体的には、グラフ上の半教師付き学習(グラフセージ、グラフ畳み込みネットワーク、グラフ注意ネットワークなど)や、グラフ表現(ディープウォーク、node2vecなど)の教師なし学習を単一の一貫したアプローチに一般化したグラフエンコーダデコーダモデル(graphedm)を提案する。
このアプローチの汎用性を説明するために、30以上の既存メソッドをこのフレームワークに適合させる。
この統一的視点は,これらの手法の背景にある直観を理解するための確固たる基盤を提供し,今後の研究を可能にすると信じている。
関連論文リスト
- State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Graph-level Neural Networks: Current Progress and Future Directions [61.08696673768116]
グラフレベルのニューラルネットワーク(GLNN、ディープラーニングベースのグラフレベルの学習法)は、高次元データのモデリングにおいて優れているため、魅力的である。
本稿では,深層ニューラルネットワーク,グラフニューラルネットワーク,グラフプール上でのGLNNを網羅する系統分類法を提案する。
論文 参考訳(メタデータ) (2022-05-31T06:16:55Z) - CGMN: A Contrastive Graph Matching Network for Self-Supervised Graph
Similarity Learning [65.1042892570989]
自己教師付きグラフ類似性学習のためのコントラストグラフマッチングネットワーク(CGMN)を提案する。
我々は,効率的なノード表現学習のために,クロスビューインタラクションとクロスグラフインタラクションという2つの戦略を用いる。
我々はノード表現をグラフ類似性計算のためのプール演算によりグラフレベル表現に変換する。
論文 参考訳(メタデータ) (2022-05-30T13:20:26Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Learning Graph Representations [0.0]
グラフニューラルネットワーク(GNN)は、大きな動的グラフデータセットに対する洞察を得るための効率的な方法である。
本稿では,グラフ畳み込みニューラルネットワークのオートエンコーダとソーシャル・テンポラル・グラフ・ニューラルネットワークについて論じる。
論文 参考訳(メタデータ) (2021-02-03T12:07:55Z) - Generating a Doppelganger Graph: Resembling but Distinct [5.618335078130568]
本論文では,与えられたグラフ特性に類似したドッペルガンガーグラフを生成する手法を提案する。
このアプローチは、グラフ表現学習、生成的敵ネットワーク、およびグラフ実現アルゴリズムのオーケストレーションである。
論文 参考訳(メタデータ) (2021-01-23T22:08:27Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Unsupervised Graph Representation by Periphery and Hierarchical
Information Maximization [18.7475578342125]
グラフニューラルネットワークの発明により、ベクトル空間におけるノードとグラフ全体の表現の最先端性が向上した。
グラフ表現全体について、既存のグラフニューラルネットワークの大部分は、教師付き方法でグラフ分類損失に基づいてトレーニングされている。
本稿では,グラフ全体のベクトル表現を生成するための教師なしグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-08T15:50:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。