論文の概要: EIGNN: Efficient Infinite-Depth Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2202.10720v1
- Date: Tue, 22 Feb 2022 08:16:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 01:18:15.315699
- Title: EIGNN: Efficient Infinite-Depth Graph Neural Networks
- Title(参考訳): EIGNN: 効率的な無限深度グラフニューラルネットワーク
- Authors: Juncheng Liu, Kenji Kawaguchi, Bryan Hooi, Yiwei Wang, Xiaokui Xiao
- Abstract要約: グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
- 参考スコア(独自算出の注目度): 51.97361378423152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are widely used for modelling graph-structured
data in numerous applications. However, with their inherently finite
aggregation layers, existing GNN models may not be able to effectively capture
long-range dependencies in the underlying graphs. Motivated by this limitation,
we propose a GNN model with infinite depth, which we call Efficient
Infinite-Depth Graph Neural Networks (EIGNN), to efficiently capture very
long-range dependencies. We theoretically derive a closed-form solution of
EIGNN which makes training an infinite-depth GNN model tractable. We then
further show that we can achieve more efficient computation for training EIGNN
by using eigendecomposition. The empirical results of comprehensive experiments
on synthetic and real-world datasets show that EIGNN has a better ability to
capture long-range dependencies than recent baselines, and consistently
achieves state-of-the-art performance. Furthermore, we show that our model is
also more robust against both noise and adversarial perturbations on node
features.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
しかし、それら固有の有限集合層により、既存のGNNモデルは、基礎となるグラフにおける長距離依存を効果的に捉えることができないかもしれない。
この制限により、我々は無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼び、非常に長い範囲の依存関係を効率的に捉える。
理論的には、無限深GNNモデルの学習を可能にするEIGNNの閉形式解を導出する。
さらに、固有分解を用いて、EIGNNのトレーニングにより効率的な計算を実現できることを示す。
合成および実世界のデータセットに関する包括的な実験の結果は、EIGNNが最近のベースラインよりも長距離依存関係をキャプチャし、一貫して最先端のパフォーマンスを達成する能力を持っていることを示している。
さらに,提案手法は,ノード特徴の雑音や逆摂動に対しても頑健であることを示す。
関連論文リスト
- Search to Capture Long-range Dependency with Stacking GNNs for Graph
Classification [41.84399177525008]
浅いGNNは、より深いGNNに直面しているよく知られたオーバースムースな問題のため、より一般的である。
LRGNN(Long-Range Graph Neural Networks)と呼ばれるニューラルアーキテクチャサーチ(NAS)による新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-17T03:40:17Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - Reducing Over-smoothing in Graph Neural Networks Using Relational
Embeddings [0.15619750966454563]
本稿では,GNNにおけるオーバー・スムーシング問題の影響を緩和する,シンプルで効率的な手法を提案する。
我々の手法は他の手法と組み合わせて最高の性能を与えることができる。
論文 参考訳(メタデータ) (2023-01-07T19:26:04Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Implicit Graph Neural Networks [46.0589136729616]
Indicit Graph Neural Networks (IGNN) と呼ばれるグラフ学習フレームワークを提案する。
IGNNは一貫して長距離依存を捉え、最先端のGNNモデルより優れている。
論文 参考訳(メタデータ) (2020-09-14T06:04:55Z) - Efficient Robustness Certificates for Discrete Data: Sparsity-Aware
Randomized Smoothing for Graphs, Images and More [85.52940587312256]
本稿では,初期作業を想定したランダム化平滑化フレームワークに基づくモデル非依存の証明書を提案する。
このアプローチがさまざまなモデル、データセット、タスクに対して有効であることを示します。
論文 参考訳(メタデータ) (2020-08-29T10:09:02Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。