論文の概要: Persistent Message Passing
- arxiv url: http://arxiv.org/abs/2103.01043v1
- Date: Mon, 1 Mar 2021 14:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:33:50.925726
- Title: Persistent Message Passing
- Title(参考訳): Persistent Message Passing
- Authors: Heiko Strathmann, Mohammadamin Barekatain, Charles Blundell, Petar
Veli\v{c}kovi\'c
- Abstract要約: グラフニューラルネットワーク(GNNs)は、アルゴリズムによる推論手順とデータ構造をモデル化する強力な誘導バイアスである。
PMP(Persistent Message Passing)は、GNNに過去の状態を明示的に永続化してクエリする機能を提供するメカニズムである。
- 参考スコア(独自算出の注目度): 13.438669435603554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are a powerful inductive bias for modelling
algorithmic reasoning procedures and data structures. Their prowess was mainly
demonstrated on tasks featuring Markovian dynamics, where querying any
associated data structure depends only on its latest state. For many tasks of
interest, however, it may be highly beneficial to support efficient data
structure queries dependent on previous states. This requires tracking the data
structure's evolution through time, placing significant pressure on the GNN's
latent representations. We introduce Persistent Message Passing (PMP), a
mechanism which endows GNNs with capability of querying past state by
explicitly persisting it: rather than overwriting node representations, it
creates new nodes whenever required. PMP generalises out-of-distribution to
more than 2x larger test inputs on dynamic temporal range queries,
significantly outperforming GNNs which overwrite states.
- Abstract(参考訳): グラフニューラルネットワーク(GNNs)は、アルゴリズムによる推論手順とデータ構造をモデル化する強力な誘導バイアスである。
彼らの長所はMarkovian dynamicsを特徴とするタスクで主に示されており、関連するデータ構造をクエリするのは最新の状態にのみ依存する。
しかし、多くの関心のあるタスクでは、以前の状態に依存する効率的なデータ構造クエリをサポートすることが非常に有益である。
これは、データ構造の進化を時間とともに追跡し、GNNの潜在表現に大きな圧力をかける必要がある。
PMP(Persistent Message Passing)は、ノード表現を上書きするのではなく、必要に応じて新しいノードを生成するという、過去の状態を明示的に永続化することでGNNにクエリする機能を与えるメカニズムである。
PMPは、動的時間範囲クエリにおける2倍以上のテスト入力に分散を一般化し、状態を上書きするGNNを著しく上回ります。
関連論文リスト
- Towards Dynamic Message Passing on Graphs [104.06474765596687]
グラフニューラルネットワーク(GNN)のための新しい動的メッセージパッシング機構を提案する。
グラフノードと学習可能な擬似ノードを、測定可能な空間関係を持つ共通空間に投影する。
ノードが空間内を移動すると、その進化する関係は動的メッセージパッシングプロセスのための柔軟な経路構築を促進する。
論文 参考訳(メタデータ) (2024-10-31T07:20:40Z) - GGNNs : Generalizing GNNs using Residual Connections and Weighted
Message Passing [0.0]
GNNはグラフ内の関係やパターンを捕捉し、効果的な学習と予測タスクを可能にする。
GNNの一般化力は、層間のメッセージパッシング機構に起因すると一般的に信じられている。
提案手法は,各ノードにアキュミュレートする前にメッセージを重み付けし,Residual接続を追加することによって,メッセージパッシング機構をさらに改良する。
論文 参考訳(メタデータ) (2023-11-26T22:22:38Z) - How does over-squashing affect the power of GNNs? [39.52168593457813]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習のための最先端モデルである。
与えられた容量のMPNNがどのノード特徴の関数クラスを学習できるかを決定するための厳密な分析を提供する。
一対のノード間の十分な通信を保証するために、MPNNの容量は十分大きすぎることを証明する。
論文 参考訳(メタデータ) (2023-06-06T11:15:53Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Explaining Dynamic Graph Neural Networks via Relevance Back-propagation [8.035521056416242]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて、豊富な情報を捕捉する際、顕著な効果を示した。
GNNのブラックボックスの性質は、モデルの理解と信頼を妨げるため、アプリケーションに困難をもたらす。
本稿ではDGExplainerを提案し,動的GNNの信頼性について説明する。
論文 参考訳(メタデータ) (2022-07-22T16:20:34Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z) - Pointer Graph Networks [48.44209547013781]
グラフニューラルネットワーク(GNN)は通常、前もって知られていると仮定される静的グラフに適用される。
Pointer Graph Networks (PGNs) モデル一般化能力を改善するために、追加の推論エッジを備えた拡張セットまたはグラフ。
PGNは各ノードが別のノードを動的に指し、メッセージがこれらのポインタを渡ることを可能にする。
論文 参考訳(メタデータ) (2020-06-11T12:52:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。