論文の概要: Topological Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2102.07835v1
- Date: Mon, 15 Feb 2021 20:27:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:11:55.366852
- Title: Topological Graph Neural Networks
- Title(参考訳): トポロジカルグラフニューラルネットワーク
- Authors: Max Horn, Edward De Brouwer, Michael Moor, Yves Moreau, Bastian Rieck,
Karsten Borgwardt
- Abstract要約: 永続ホモロジーを用いたグラフのグローバルトポロジ情報を取り入れた新しい層であるTOGLを提案する。
我々の層によるGNNの拡張は、合成データセットと実世界のデータの両方において、有益な予測性能をもたらす。
- 参考スコア(独自算出の注目度): 14.349152231293928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are a powerful architecture for tackling graph
learning tasks, yet have been shown to be oblivious to eminent substructures,
such as cycles. We present TOGL, a novel layer that incorporates global
topological information of a graph using persistent homology. TOGL can be
easily integrated into any type of GNN and is strictly more expressive in terms
of the Weisfeiler--Lehman test of isomorphism. Augmenting GNNs with our layer
leads to beneficial predictive performance, both on synthetic data sets, which
can be trivially classified by humans but not by ordinary GNNs, and on
real-world data.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、グラフ学習タスクに取り組むための強力なアーキテクチャであるが、サイクルのようなエミナントなサブ構造に従わないことが示されている。
永続ホモロジーを用いたグラフのグローバルトポロジ情報を取り入れた新しい層であるTOGLを提案する。
TOGL は任意の種類の GNN に容易に統合でき、Weisfeiler-Lehman test of isomorphism の観点からは厳密に表現できる。
我々の層でGNNを増強すると、人工的なデータセットにおいて、人間によって自明に分類されるが、通常のGNNでは分類されず、実世界のデータでは有益な予測性能が得られる。
関連論文リスト
- Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Incorporating Symbolic Domain Knowledge into Graph Neural Networks [18.798760815214877]
グラフ構造化データ(グラフベースニューラルネットワーク、GNN)に特化して開発されたディープニューラルネットワーク
我々は,「頂点富化」という操作を用いて,GNNのこの側面を実証的に検討し,対応するGNNを「VEGNN」と表現する。
論文 参考訳(メタデータ) (2020-10-23T16:22:21Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - The Impact of Global Structural Information in Graph Neural Networks
Applications [5.629161809575013]
グラフニューラルネットワーク(GNN)は、集約戦略を定義するためにグラフ構造に依存する。
GNNの既知の制限は、レイヤーの数が増加するにつれて情報がスムースになり、切り離されることである。
いくつかのGNNモデルにグローバル情報へのアクセスを提供し、それが下流のパフォーマンスに与える影響を観察する。
論文 参考訳(メタデータ) (2020-06-06T08:52:18Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。