論文の概要: SpeqNets: Sparsity-aware Permutation-equivariant Graph Networks
- arxiv url: http://arxiv.org/abs/2203.13913v1
- Date: Fri, 25 Mar 2022 21:17:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 12:39:49.027458
- Title: SpeqNets: Sparsity-aware Permutation-equivariant Graph Networks
- Title(参考訳): SpeqNets:sprsity-aware Permutation-equivariant Graph Networks
- Authors: Christopher Morris, Gaurav Rattan, Sandra Kiefer, and Siamak
Ravanbakhsh
- Abstract要約: 我々は、普遍的、置換同変グラフネットワークのクラスを示す。
それらは表現性とスケーラビリティのきめ細かい制御を提供し、グラフの幅に適応する。
これらのアーキテクチャにより、標準的な高階グラフネットワークに比べて計算時間が大幅に短縮される。
- 参考スコア(独自算出の注目度): 16.14454388348814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While (message-passing) graph neural networks have clear limitations in
approximating permutation-equivariant functions over graphs or general
relational data, more expressive, higher-order graph neural networks do not
scale to large graphs. They either operate on $k$-order tensors or consider all
$k$-node subgraphs, implying an exponential dependence on $k$ in memory
requirements, and do not adapt to the sparsity of the graph. By introducing new
heuristics for the graph isomorphism problem, we devise a class of universal,
permutation-equivariant graph networks, which, unlike previous architectures,
offer a fine-grained control between expressivity and scalability and adapt to
the sparsity of the graph. These architectures lead to vastly reduced
computation times compared to standard higher-order graph networks in the
supervised node- and graph-level classification and regression regime while
significantly improving over standard graph neural network and graph kernel
architectures in terms of predictive performance.
- Abstract(参考訳): メッセージパッシング)グラフニューラルネットワークは、グラフや一般的なリレーショナルデータ上での置換同変関数の近似に明確な制限があるが、より表現力のある高次グラフニューラルネットワークは、大きなグラフにスケールしない。
彼らは$k$-orderテンソルで操作するか、$k$-nodeサブグラフをすべて考慮し、メモリ要件の$k$への指数関数依存を示し、グラフのスパーシティに適応しない。
グラフ同型問題に対する新しいヒューリスティックを導入することで、従来のアーキテクチャとは異なり、表現性と拡張性の間の細かな制御を提供し、グラフのスパーシティに適応する普遍的、置換同変グラフネットワークのクラスを考案する。
これらのアーキテクチャは、予測性能の観点から標準グラフニューラルネットワークやグラフカーネルアーキテクチャを大幅に改善しながら、教師付きノードとグラフレベルの分類と回帰レジームにおける標準的な高次グラフネットワークと比較して、計算時間を大幅に削減する。
関連論文リスト
- Geometric instability of graph neural networks on large graphs [0.0]
グラフニューラルネットワーク(GNN)による埋め込みの幾何学的不安定性の解析
このような不安定性を測定するために,グラフネイティブグラフグラフグラム(GGI)を提案する。
これにより、ノード分類とリンク予測の両方のために、GNN埋め込みの様々な不安定な振る舞いを大きなグラフ上で研究することができる。
論文 参考訳(メタデータ) (2023-08-19T20:10:54Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Generalization in Graph Neural Networks: Improved PAC-Bayesian Bounds on
Graph Diffusion [17.70434437597516]
本稿では,グラフニューラルネットワークの特徴拡散行列の最大特異値でスケールする一般化境界について述べる。
これらの境界は実世界のグラフの以前の境界よりも数値的にはるかに小さい。
ヘッセン語を用いた雑音摂動に対するグラフニューラルネットワークの安定性を測定する。
論文 参考訳(メタデータ) (2023-02-09T05:54:17Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Permutation-Invariant Variational Autoencoder for Graph-Level
Representation Learning [0.0]
グラフ構造データに対する置換不変変分オートエンコーダを提案する。
本モデルは、特定のノード順序を強制することなく、入出力グラフのノード順序を間接的に学習する。
提案モデルの有効性を様々なグラフの再構築や生成タスクで実証する。
論文 参考訳(メタデータ) (2021-04-20T09:44:41Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z) - Natural Graph Networks [80.77570956520482]
より一般的な自然性の概念がグラフネットワークを適切に定義するのに十分であることを示す。
グローバルおよびローカルな自然グラフネットワークを定義し、後者は従来のメッセージパッシンググラフニューラルネットワークと同じくらいスケーラブルである。
論文 参考訳(メタデータ) (2020-07-16T14:19:06Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。