論文の概要: SIGN: Scalable Inception Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2004.11198v3
- Date: Tue, 3 Nov 2020 19:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:11:48.920029
- Title: SIGN: Scalable Inception Graph Neural Networks
- Title(参考訳): SIGN: スケーラブルなインセプショングラフニューラルネットワーク
- Authors: Fabrizio Frasca, Emanuele Rossi, Davide Eynard, Ben Chamberlain,
Michael Bronstein, Federico Monti
- Abstract要約: 本稿では,グラフサンプリングの必要性を助長する,効率的でスケーラブルなグラフ深層学習アーキテクチャを提案する。
私たちのアーキテクチャでは、異なるローカルグラフ演算子を使用して、そのタスクに最も適しています。
我々は,1億1000万のノードと15億のエッジを持つ,最大の公開グラフデータセットであるogbn-papers100Mについて,最先端の結果を得た。
- 参考スコア(独自算出の注目度): 4.5158585619109495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning has recently been applied to a broad spectrum
of problems ranging from computer graphics and chemistry to high energy physics
and social media. The popularity of graph neural networks has sparked interest,
both in academia and in industry, in developing methods that scale to very
large graphs such as Facebook or Twitter social networks. In most of these
approaches, the computational cost is alleviated by a sampling strategy
retaining a subset of node neighbors or subgraphs at training time. In this
paper we propose a new, efficient and scalable graph deep learning architecture
which sidesteps the need for graph sampling by using graph convolutional
filters of different size that are amenable to efficient precomputation,
allowing extremely fast training and inference. Our architecture allows using
different local graph operators (e.g. motif-induced adjacency matrices or
Personalized Page Rank diffusion matrix) to best suit the task at hand. We
conduct extensive experimental evaluation on various open benchmarks and show
that our approach is competitive with other state-of-the-art architectures,
while requiring a fraction of the training and inference time. Moreover, we
obtain state-of-the-art results on ogbn-papers100M, the largest public graph
dataset, with over 110 million nodes and 1.5 billion edges.
- Abstract(参考訳): グラフ表現学習は、コンピュータグラフィックスや化学から高エネルギー物理学やソーシャルメディアまで、幅広い問題に適用されている。
グラフニューラルネットワークの人気は、学術と産業の両方において、FacebookやTwitterのような非常に大きなグラフにスケールする手法の開発において、関心を喚起している。
これらの手法の多くは、訓練時にノード隣人やサブグラフのサブセットを保持するサンプリング戦略によって計算コストが軽減される。
本稿では,効率のよい事前計算が可能な,異なる大きさのグラフ畳み込みフィルタを用いることで,グラフサンプリングの必要性を回避し,極めて高速なトレーニングと推論を可能にする,新しい効率的でスケーラブルなグラフディープラーニングアーキテクチャを提案する。
我々のアーキテクチャは、異なる局所グラフ演算子(例えば、モチーフによって誘導される隣接行列やパーソナライズされたページランク拡散行列)を、そのタスクに最適なように使用できる。
様々なオープンなベンチマークで広範な実験的評価を行い、我々のアプローチは他の最先端アーキテクチャと競合する一方で、トレーニングと推論時間の一部を必要としていることを示す。
さらに,1億1000万以上のノードと15億のエッジを持つ最大公開グラフデータセットであるogbn-papers100Mについて,最先端の結果を得た。
関連論文リスト
- HUGE: Huge Unsupervised Graph Embeddings with TPUs [6.108914274067702]
グラフ埋め込み(Graph Embedding)は、グラフ内のノードを連続的に表現するプロセスである。
高帯域幅メモリを利用した高性能グラフ埋め込みアーキテクチャを提案する。
実・合成大規模データセット上での埋め込み空間の品質を検証する。
論文 参考訳(メタデータ) (2023-07-26T20:29:15Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Learning through structure: towards deep neuromorphic knowledge graph
embeddings [0.5906031288935515]
本稿では,知識グラフ推論のための深層グラフ学習アーキテクチャをニューロモルフィックアーキテクチャにマッピングする戦略を提案する。
ランダムかつ未学習のグラフニューラルネットワークが局所的なグラフ構造を保存することができるという知見に基づいて、凍結したニューラルネットワークの浅い知識グラフ埋め込みモデルを構成する。
我々は,従来型のハードウェア上では,性能水準を維持しながら,高速化とメモリの大幅な削減を実現していることを示す。
論文 参考訳(メタデータ) (2021-09-21T18:01:04Z) - GraphTheta: A Distributed Graph Neural Network Learning System With
Flexible Training Strategy [5.466414428765544]
新しい分散グラフ学習システムGraphThetaを紹介します。
複数のトレーニング戦略をサポートし、大規模グラフ上で効率的でスケーラブルな学習を可能にします。
この仕事は、文学における10億規模のネットワーク上で実施された最大のエッジアトリビュートGNN学習タスクを表します。
論文 参考訳(メタデータ) (2021-04-21T14:51:33Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - MathNet: Haar-Like Wavelet Multiresolution-Analysis for Graph
Representation and Learning [31.42901131602713]
本稿では,マルチレゾリューション・ハール型ウェーブレット(MathNet)を用いたグラフニューラルネットワークのためのフレームワークを提案する。
提案したMathNetは、特にデータセットにおいて、既存のGNNモデルよりも優れている。
論文 参考訳(メタデータ) (2020-07-22T05:00:59Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。