論文の概要: Shortest Path Networks for Graph Property Prediction
- arxiv url: http://arxiv.org/abs/2206.01003v1
- Date: Thu, 2 Jun 2022 12:04:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 13:21:00.220579
- Title: Shortest Path Networks for Graph Property Prediction
- Title(参考訳): グラフ特性予測のための最短経路ネットワーク
- Authors: Ralph Abboud, Radoslav Dimitrov, \.Ismail \.Ilkan Ceylan
- Abstract要約: ほとんどのグラフニューラルネットワークモデルは、グラフのノード表現を直接近傍の各ノードに反復的に伝播するという、特定のメッセージパッシングパラダイムに依存している。
本稿では,最短経路近傍の各ノードにグラフのノード表現を伝搬する最短経路メッセージパッシングニューラルネットワークを提案する。
我々のフレームワークは、メッセージパッシングニューラルネットワークを一般化し、より表現力のあるモデルをもたらす。
- 参考スコア(独自算出の注目度): 13.986963122264632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most graph neural network models rely on a particular message passing
paradigm, where the idea is to iteratively propagate node representations of a
graph to each node in the direct neighborhood. While very prominent, this
paradigm leads to information propagation bottlenecks, as information is
repeatedly compressed at intermediary node representations, which causes loss
of information, making it practically impossible to gather meaningful signals
from distant nodes. To address this issue, we propose shortest path message
passing neural networks, where the node representations of a graph are
propagated to each node in the shortest path neighborhoods. In this setting,
nodes can directly communicate between each other even if they are not
neighbors, breaking the information bottleneck and hence leading to more
adequately learned representations. Theoretically, our framework generalizes
message passing neural networks, resulting in provably more expressive models.
Empirically, we verify the capacity of a basic model of this framework on
dedicated synthetic experiments, and on real-world graph classification and
regression benchmarks, obtaining several state-of-the-art results.
- Abstract(参考訳): ほとんどのグラフニューラルネットワークモデルは、グラフのノード表現を直接近傍の各ノードに反復的に伝播するという、特定のメッセージパッシングパラダイムに依存している。
このパラダイムは、情報が中間ノード表現で繰り返し圧縮され、情報の損失を引き起こし、遠方のノードから有意な信号を収集することが事実上不可能となるため、情報伝達ボトルネックに繋がる。
この問題に対処するために,グラフのノード表現が最短経路近傍の各ノードに伝播する最短経路メッセージパッシングニューラルネットワークを提案する。
この設定では、ノードはたとえ隣人でも直接通信することができ、情報のボトルネックを破り、それによってより適切に学習された表現につながる。
理論的には、我々のフレームワークはメッセージパッシングニューラルネットワークを一般化し、より表現力のあるモデルをもたらす。
実験により,本フレームワークの基本モデルとして,専用の合成実験,および実世界のグラフ分類と回帰ベンチマークの能力を検証する。
関連論文リスト
- SF-GNN: Self Filter for Message Lossless Propagation in Deep Graph Neural Network [38.669815079957566]
グラフニューラルネットワーク(GNN)は,グラフの伝播と集約によるグラフ構造情報の符号化を主目的とする。
等質グラフ、異質グラフ、知識グラフのようなより複雑なグラフなど、複数の種類のグラフの表現学習において優れた性能を発揮した。
深部GNNの性能劣化現象に対して,新しい視点を提案する。
論文 参考訳(メタデータ) (2024-07-03T02:40:39Z) - Message Detouring: A Simple Yet Effective Cycle Representation for
Expressive Graph Learning [4.085624738017079]
グラフ全体のサイクル表現を階層的に特徴付けるために,テキストデツーリングの概念を導入する。
メッセージのデツーリングは、さまざまなベンチマークデータセットにおいて、現在の競合するアプローチを大幅に上回る可能性がある。
論文 参考訳(メタデータ) (2024-02-12T22:06:37Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Cooperative Graph Neural Networks [7.2459816681395095]
グラフニューラルネットワークのクラスは、標準的なメッセージパッシングパラダイムに従う。
本稿では,グラフニューラルネットワークをトレーニングするための新しいフレームワークを提案する。
私たちのアプローチは、より柔軟で動的なメッセージパッシングパラダイムを提供します。
論文 参考訳(メタデータ) (2023-10-02T15:08:52Z) - Half-Hop: A graph upsampling approach for slowing down message passing [31.26080679115766]
メッセージパッシングニューラルネットワークにおける学習を改善するためのフレームワークを提案する。
我々のアプローチは基本的に、各エッジに"スローノード"を追加することで、元のグラフのエッジをサンプリングする。
提案手法は入力グラフのみを修正し,既存のモデルでプラグイン・アンド・プレイしやすくする。
論文 参考訳(メタデータ) (2023-08-17T22:24:15Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Graph Fairing Convolutional Networks for Anomaly Detection [7.070726553564701]
半教師付き異常検出のためのスキップ接続付きグラフ畳み込みネットワークを提案する。
本モデルの有効性は,5つのベンチマークデータセットに対する広範な実験によって実証された。
論文 参考訳(メタデータ) (2020-10-20T13:45:47Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。