論文の概要: Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs
- arxiv url: http://arxiv.org/abs/2006.04330v1
- Date: Mon, 8 Jun 2020 02:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:24:13.648773
- Title: Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs
- Title(参考訳): Eigen-GNN: GNNのプラグインを保存するグラフ構造
- Authors: Ziwei Zhang, Peng Cui, Jian Pei, Xin Wang, Wenwu Zhu
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
- 参考スコア(独自算出の注目度): 95.63153473559865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are emerging machine learning models on graphs.
Although sufficiently deep GNNs are shown theoretically capable of fully
preserving graph structures, most existing GNN models in practice are shallow
and essentially feature-centric. We show empirically and analytically that the
existing shallow GNNs cannot preserve graph structures well. To overcome this
fundamental challenge, we propose Eigen-GNN, a simple yet effective and general
plug-in module to boost GNNs ability in preserving graph structures.
Specifically, we integrate the eigenspace of graph structures with GNNs by
treating GNNs as a type of dimensionality reduction and expanding the initial
dimensionality reduction bases. Without needing to increase depths, Eigen-GNN
possesses more flexibilities in handling both feature-driven and
structure-driven tasks since the initial bases contain both node features and
graph structures. We present extensive experimental results to demonstrate the
effectiveness of Eigen-GNN for tasks including node classification, link
prediction, and graph isomorphism tests.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
十分に深いGNNは理論上グラフ構造を完全に保存できるが、実際には既存のGNNモデルは浅く、本質的に機能中心である。
既存の浅層gnnはグラフ構造を十分に保存できないことを実証的かつ分析的に示す。
この根本的な課題を克服するため,グラフ構造保存におけるGNNの能力を高めるために,Eigen-GNNを提案する。
具体的には、グラフ構造の固有空間をGNNと統合し、GNNを次元化のタイプとして扱い、初期次元化の基盤を広げる。
深さを増やすことなく、eigen-gnnは、ノードの特徴とグラフ構造の両方を含んでいるため、機能駆動タスクと構造駆動タスクの両方を扱う柔軟性を持つ。
本稿では,ノード分類,リンク予測,グラフ同型テストなどのタスクに対して,Eigen-GNNの有効性を示すための実験結果を紹介する。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks can Recover the Hidden Features Solely from the Graph Structure [17.912507269030577]
グラフニューラルネットワーク(GNN)は、グラフ学習問題の一般的なモデルである。
GNNはグラフ構造を自分自身で完全に活用できることを示す。
事実上、GNNは下流タスクに隠されたノード機能と明示的なノード機能の両方を使用することができる。
論文 参考訳(メタデータ) (2023-01-26T06:28:41Z) - Ego-GNNs: Exploiting Ego Structures in Graph Neural Networks [12.97622530614215]
Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識できることを示す。
特に、Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識することができることを示す。
論文 参考訳(メタデータ) (2021-07-22T23:42:23Z) - Theoretically Improving Graph Neural Networks via Anonymous Walk Graph
Kernels [25.736529232578178]
グラフニューラルネットワーク(GNN)は、グラフマイニングで大きな成功を収めました。
一般的なGNNとしてMPGNNは、多くのグラフのサブ構造を識別、検出、カウントできないことが理論的に示されている。
理論的にはグラフ構造を区別する能力の強いGNNモデルであるGSKNを提案する。
論文 参考訳(メタデータ) (2021-04-07T08:50:34Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。