論文の概要: Graph Neural Networks with Parallel Neighborhood Aggregations for Graph
Classification
- arxiv url: http://arxiv.org/abs/2111.11482v1
- Date: Mon, 22 Nov 2021 19:19:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 14:34:09.070598
- Title: Graph Neural Networks with Parallel Neighborhood Aggregations for Graph
Classification
- Title(参考訳): グラフ分類のための並列近傍アグリゲーションを持つグラフニューラルネットワーク
- Authors: Siddhant Doshi and Sundeep Prabhakar Chepuri
- Abstract要約: グラフニューラルネットワーク(GNN)モデルを用いたグラフ分類に着目し、並列に配置された近傍グラフ演算子のバンクを用いてノード特徴をプリ計算する。
これらのGNNモデルには、事前計算によるトレーニングと推論時間の削減という自然な利点がある。
本研究は,様々な実世界のデータセット上で,開発モデルが最先端の性能を達成することを数値実験により実証する。
- 参考スコア(独自算出の注目度): 14.112444998191698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on graph classification using a graph neural network (GNN) model
that precomputes the node features using a bank of neighborhood aggregation
graph operators arranged in parallel. These GNN models have a natural advantage
of reduced training and inference time due to the precomputations but are also
fundamentally different from popular GNN variants that update node features
through a sequential neighborhood aggregation procedure during training. We
provide theoretical conditions under which a generic GNN model with parallel
neighborhood aggregations (PA-GNNs, in short) are provably as powerful as the
well-known Weisfeiler-Lehman (WL) graph isomorphism test in discriminating
non-isomorphic graphs. Although PA-GNN models do not have an apparent
relationship with the WL test, we show that the graph embeddings obtained from
these two methods are injectively related. We then propose a specialized PA-GNN
model, called SPIN, which obeys the developed conditions. We demonstrate via
numerical experiments that the developed model achieves state-of-the-art
performance on many diverse real-world datasets while maintaining the
discriminative power of the WL test and the computational advantage of
preprocessing graphs before the training process.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)モデルを用いたグラフ分類に着目し、並列に配置された近傍グラフ演算子のバンクを用いてノード特徴をプリ計算する。
これらのGNNモデルは、事前計算によりトレーニングと推論時間を短縮する自然な利点があるが、トレーニング中のシーケンシャルな近所の集約手順を通じてノードの特徴を更新する一般的なGNNの変種と根本的に異なる。
並列近傍アグリゲーション(PA-GNN)を持つ一般GNNモデルが、非同型グラフの識別においてよく知られたWeisfeiler-Lehman(WL)グラフ同型テストと同じくらい強力である理論条件を提供する。
PA-GNNモデルはWLテストと明らかな関係はないが、これらの2つの手法から得られたグラフ埋め込みはインジェクティブに関連していることを示す。
そこで我々は,SPINと呼ばれる特殊なPA-GNNモデルを提案する。
我々は,WLテストの識別能力と,トレーニング前の前処理グラフの計算的優位性を維持しつつ,様々な実世界のデータセット上での最先端性能を実現することを数値実験により実証した。
関連論文リスト
- Higher-Order GNNs Meet Efficiency: Sparse Sobolev Graph Neural Networks [6.080095317098909]
グラフニューラルネットワーク(GNN)は,グラフ内のノード間の関係をモデル化する上で,非常に有望であることを示す。
これまでの研究では、主にグラフ内の高次隣人からの情報を活用しようと試みてきた。
我々は基本的な観察を行い、ラプラシア行列の正則とアダマールの力はスペクトルでも同様に振る舞う。
グラフ信号のスパースなソボレフノルムに基づく新しいグラフ畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2024-11-07T09:53:11Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Graph Neural Network-Inspired Kernels for Gaussian Processes in
Semi-Supervised Learning [4.644263115284322]
グラフニューラルネットワーク(GNN)は、半教師付き学習において、グラフ構造化データのモデルとして期待できるクラスとして最近登場した。
この帰納バイアスをGPに導入して,グラフ構造化データの予測性能を向上させる。
これらのグラフベースのカーネルは、各GNNと比較して、競合する分類と回帰性能、および時間の長所をもたらすことを示す。
論文 参考訳(メタデータ) (2023-02-12T01:07:56Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。