論文の概要: GIPA: General Information Propagation Algorithm for Graph Learning
- arxiv url: http://arxiv.org/abs/2105.06035v1
- Date: Thu, 13 May 2021 01:50:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:52:52.266022
- Title: GIPA: General Information Propagation Algorithm for Graph Learning
- Title(参考訳): GIPA:グラフ学習のための汎用情報伝搬アルゴリズム
- Authors: Qinkai Zheng, Houyi Li, Peng Zhang, Zhixiong Yang, Guowei Zhang,
Xintan Zeng, Yongchao Liu
- Abstract要約: 属性付きグラフデータ学習のための新しいグラフ注目ニューラルネットワーク、すなわちGIPAを紹介します。
GIPAは3つの重要なコンポーネントで構成されている。
Open Graph Benchmark protein データセットを用いてGIPAの性能を評価する。
- 参考スコア(独自算出の注目度): 3.228614352581043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have been popularly used in analyzing
graph-structured data, showing promising results in various applications such
as node classification, link prediction and network recommendation. In this
paper, we present a new graph attention neural network, namely GIPA, for
attributed graph data learning. GIPA consists of three key components:
attention, feature propagation and aggregation. Specifically, the attention
component introduces a new multi-layer perceptron based multi-head to generate
better non-linear feature mapping and representation than conventional
implementations such as dot-product. The propagation component considers not
only node features but also edge features, which differs from existing GNNs
that merely consider node features. The aggregation component uses a residual
connection to generate the final embedding. We evaluate the performance of GIPA
using the Open Graph Benchmark proteins (ogbn-proteins for short) dataset. The
experimental results reveal that GIPA can beat the state-of-the-art models in
terms of prediction accuracy, e.g., GIPA achieves an average ROC-AUC of
$0.8700\pm 0.0010$ and outperforms all the previous methods listed in the
ogbn-proteins leaderboard.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は,ノード分類やリンク予測,ネットワークレコメンデーションなど,さまざまなアプリケーションで有望な結果を示すグラフ構造化データの解析に広く使用されている。
本稿では,属性付きグラフデータ学習のための新しいグラフ注意ニューラルネットワークGIPAを提案する。
GIPAは3つの重要なコンポーネントで構成されている。
具体的には,多層パーセプトロンをベースとしたマルチヘッドを導入し,ドット積などの従来の実装よりも非線形の特徴マッピングと表現性が向上した。
伝搬コンポーネントはノード機能だけでなくエッジ機能も考慮しており、ノード機能のみを考慮した既存のGNNとは異なる。
集約コンポーネントは、最後の埋め込みを生成するために残留接続を使用する。
我々は, Open Graph Benchmark protein (ogbn-oproteins for short) を用いたGIPAの性能評価を行った。
実験の結果、GIPAは予測精度の点で最先端モデルに勝るものであることが判明した。例えば、GIPAは平均ROC-AUC$0.8700\pm 0.0010$を達成し、ogbn- Proteinsのリーダーボードにリストされたすべての手法を上回っている。
関連論文リスト
- Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - GIPA++: A General Information Propagation Algorithm for Graph Learning [34.0393139910052]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ計算に広く利用されている。
よりきめ細かい情報融合を利用する汎用情報伝搬アルゴリズム(GIPA)を提案する。
GIPAは、その伝播におけるエッジ特徴に基づくビットワイドと特徴ワイドの相関を利用する。
論文 参考訳(メタデータ) (2023-01-19T18:00:51Z) - SPGP: Structure Prototype Guided Graph Pooling [1.3764085113103217]
グラフレベルの表現を学習するための構造プロトタイプガイドプーリング(SPGP)を提案する。
SPGPはグラフ構造を学習可能なプロトタイプベクトルとして定式化し、ノードとプロトタイプベクトル間の親和性を計算する。
実験の結果,SPGPはグラフ分類ベンチマークデータセットにおいて,最先端のグラフプーリング手法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-16T09:33:09Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Higher-Order Attribute-Enhancing Heterogeneous Graph Neural Networks [67.25782890241496]
異種ネットワーク表現学習のための高次属性強化グラフニューラルネットワーク(HAEGNN)を提案する。
HAEGNNは、リッチで異質なセマンティクスのためのメタパスとメタグラフを同時に組み込む。
ノード分類、ノードクラスタリング、可視化における最先端の手法よりも優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-04-16T04:56:38Z) - GAIN: Graph Attention & Interaction Network for Inductive
Semi-Supervised Learning over Large-scale Graphs [18.23435958000212]
グラフニューラルネットワーク(GNN)は、推薦、ノード分類、リンク予測など、さまざまな機械学習タスクにおいて最先端のパフォーマンスを実現している。
既存のGNNモデルの多くは、隣接するノード情報を集約するために単一のタイプのアグリゲータを利用している。
本稿では,グラフ上の帰納学習のための新しいグラフニューラルネットワークアーキテクチャであるグラフ注意と相互作用ネットワーク(GAIN)を提案する。
論文 参考訳(メタデータ) (2020-11-03T00:20:24Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Adaptive Universal Generalized PageRank Graph Neural Network [36.850433364139924]
グラフニューラルネットワーク(GNN)は、両方の証拠源を利用するように設計されている。
本稿では,GPR重みを適応的に学習する汎用PageRank (GPR) GNNアーキテクチャを提案する。
GPR-GNNは、合成データとベンチマークデータの両方の既存の技術と比較して、大幅な性能改善を提供する。
論文 参考訳(メタデータ) (2020-06-14T19:27:39Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。