論文の概要: The Impact of Global Structural Information in Graph Neural Networks
Applications
- arxiv url: http://arxiv.org/abs/2006.03814v2
- Date: Wed, 15 Dec 2021 17:37:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:24:07.363087
- Title: The Impact of Global Structural Information in Graph Neural Networks
Applications
- Title(参考訳): グラフニューラルネットワーク応用におけるグローバル構造情報の影響
- Authors: Davide Buffelli, Fabio Vandin
- Abstract要約: グラフニューラルネットワーク(GNN)は、集約戦略を定義するためにグラフ構造に依存する。
GNNの既知の制限は、レイヤーの数が増加するにつれて情報がスムースになり、切り離されることである。
いくつかのGNNモデルにグローバル情報へのアクセスを提供し、それが下流のパフォーマンスに与える影響を観察する。
- 参考スコア(独自算出の注目度): 5.629161809575013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) rely on the graph structure to define an
aggregation strategy where each node updates its representation by combining
information from its neighbours. A known limitation of GNNs is that, as the
number of layers increases, information gets smoothed and squashed and node
embeddings become indistinguishable, negatively affecting performance.
Therefore, practical GNN models employ few layers and only leverage the graph
structure in terms of limited, small neighbourhoods around each node.
Inevitably, practical GNNs do not capture information depending on the global
structure of the graph. While there have been several works studying the
limitations and expressivity of GNNs, the question of whether practical
applications on graph structured data require global structural knowledge or
not, remains unanswered. In this work, we empirically address this question by
giving access to global information to several GNN models, and observing the
impact it has on downstream performance. Our results show that global
information can in fact provide significant benefits for common graph-related
tasks. We further identify a novel regularization strategy that leads to an
average accuracy improvement of more than 5% on all considered tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はグラフ構造に依存して,各ノードが近隣からの情報を組み合わせて表現を更新する集約戦略を定義する。
GNNの既知の制限は、レイヤーの数が増えるにつれて情報がスムーズになり、ノードの埋め込みが識別不能になり、パフォーマンスに悪影響を及ぼすことである。
そのため、実用的なGNNモデルでは、グラフ構造を各ノードの周辺に限定した小さな近傍でのみ活用する。
必然的に、実用的なGNNは、グラフのグローバル構造に応じて情報をキャプチャしない。
GNNの限界と表現性を研究する研究はいくつかあるが、グラフ構造化データに対する実践的な応用がグローバルな構造的知識を必要とするかどうかという問題は未解決のままである。
本研究では,複数のGNNモデルに対してグローバル情報へのアクセスを提供し,下流の性能に与える影響を観察することにより,この問題に実証的に対処する。
以上の結果から,グローバル情報はグラフ関連タスクに有意なメリットをもたらすことが示唆された。
さらに、検討された全てのタスクにおいて平均的精度を5%以上向上させる新しい正規化戦略を同定する。
関連論文リスト
- MDS-GNN: A Mutual Dual-Stream Graph Neural Network on Graphs with Incomplete Features and Structure [8.00268216176428]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから表現を分析し学習するための強力なツールとして登場した。
GNNの卓越した性能にとって重要な前提条件は、完全なグラフ情報の提供である。
本研究では,特徴と構造間の相互利益学習を実装した相互二重ストリームグラフニューラルネットワーク(MDS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:42:56Z) - Unveiling Global Interactive Patterns across Graphs: Towards Interpretable Graph Neural Networks [31.29616732552006]
グラフニューラルネットワーク(GNN)は、グラフマイニングの著名なフレームワークとして登場した。
本稿では,グラフ分類に内在的に解釈可能な新しい手法を提案する。
グローバル対話パターン(GIP)学習は、学習可能なグローバル対話パターンを導入し、決定を明示的に解釈する。
論文 参考訳(メタデータ) (2024-07-02T06:31:13Z) - Harnessing Collective Structure Knowledge in Data Augmentation for Graph Neural Networks [25.12261412297796]
グラフニューラルネットワーク(GNN)は,グラフ表現学習において最先端のパフォーマンスを達成した。
我々は新しいアプローチ、すなわち集合構造知識強化グラフニューラルネットワーク(CoS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-05-17T08:50:00Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Topological Graph Neural Networks [14.349152231293928]
永続ホモロジーを用いたグラフのグローバルトポロジ情報を取り入れた新しい層であるTOGLを提案する。
我々の層によるGNNの拡張は、合成データセットと実世界のデータの両方において、有益な予測性能をもたらす。
論文 参考訳(メタデータ) (2021-02-15T20:27:56Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - From Local Structures to Size Generalization in Graph Neural Networks [53.3202754533658]
グラフニューラルネットワーク(GNN)は、さまざまなサイズのグラフを処理することができる。
特に小さなグラフから大きなグラフまで、サイズをまたいで一般化する能力は、まだよく理解されていない。
論文 参考訳(メタデータ) (2020-10-17T19:36:54Z) - Incomplete Graph Representation and Learning via Partial Graph Neural
Networks [7.227805463462352]
多くのアプリケーションでは、グラフノードの属性が部分的に未知/欠落している不完全な形式でグラフがやってくる可能性がある。
既存のGNNは、属性不完全なグラフデータを直接処理できない完全なグラフに基づいて設計されている。
本研究では,属性不完全グラフ表現と学習のための部分グラフニューラルネットワーク(PaGNN)を新たに開発した。
論文 参考訳(メタデータ) (2020-03-23T08:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。