論文の概要: Pointer Graph Networks
- arxiv url: http://arxiv.org/abs/2006.06380v2
- Date: Sun, 18 Oct 2020 20:00:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 13:04:51.271423
- Title: Pointer Graph Networks
- Title(参考訳): ポインタグラフネットワーク
- Authors: Petar Veli\v{c}kovi\'c, Lars Buesing, Matthew C. Overlan, Razvan
Pascanu, Oriol Vinyals, Charles Blundell
- Abstract要約: グラフニューラルネットワーク(GNN)は通常、前もって知られていると仮定される静的グラフに適用される。
Pointer Graph Networks (PGNs) モデル一般化能力を改善するために、追加の推論エッジを備えた拡張セットまたはグラフ。
PGNは各ノードが別のノードを動的に指し、メッセージがこれらのポインタを渡ることを可能にする。
- 参考スコア(独自算出の注目度): 48.44209547013781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are typically applied to static graphs that are
assumed to be known upfront. This static input structure is often informed
purely by insight of the machine learning practitioner, and might not be
optimal for the actual task the GNN is solving. In absence of reliable domain
expertise, one might resort to inferring the latent graph structure, which is
often difficult due to the vast search space of possible graphs. Here we
introduce Pointer Graph Networks (PGNs) which augment sets or graphs with
additional inferred edges for improved model generalisation ability. PGNs allow
each node to dynamically point to another node, followed by message passing
over these pointers. The sparsity of this adaptable graph structure makes
learning tractable while still being sufficiently expressive to simulate
complex algorithms. Critically, the pointing mechanism is directly supervised
to model long-term sequences of operations on classical data structures,
incorporating useful structural inductive biases from theoretical computer
science. Qualitatively, we demonstrate that PGNs can learn parallelisable
variants of pointer-based data structures, namely disjoint set unions and
link/cut trees. PGNs generalise out-of-distribution to 5x larger test inputs on
dynamic graph connectivity tasks, outperforming unrestricted GNNs and Deep
Sets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は通常、前もって知られていると仮定される静的グラフに適用される。
この静的入力構造は、マシンラーニング実践者の洞察によって純粋に通知されることが多く、GNNが解決している実際のタスクには最適ではないかもしれない。
信頼できる分野の専門知識がなければ、潜在グラフ構造を推測することに頼るかもしれない。
ここでは、モデル一般化能力を改善するために、追加の推論エッジを持つ集合やグラフを拡大するPointer Graph Networks(PGNs)を紹介する。
PGNは各ノードが別のノードを動的に指し、メッセージがこれらのポインタを渡ることを可能にする。
この適応可能なグラフ構造のスパース性は、複雑なアルゴリズムをシミュレートするのに十分な表現力を持ちながら、学習を扱いやすくする。
重要な点として、ポインティングメカニズムは、理論計算機科学から有用な構造的帰納バイアスを取り入れ、古典的なデータ構造上の操作の長期的シーケンスをモデル化するために直接監督される。
定量的に、PGNはポインタベースのデータ構造、すなわち不連結集合和とリンク/カット木を並列に学習できることを実証する。
pgnsは、動的グラフ接続タスクの5倍のテスト入力へのアウトオブディストリビューションを一般化し、制限のないgnnやディープセットよりも優れている。
関連論文リスト
- NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Inferential SIR-GN: Scalable Graph Representation Learning [0.4699313647907615]
グラフ表現学習法は、ネットワーク内のノードの数値ベクトル表現を生成する。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
このモデルではノードの構造的役割情報を捉えることができ、ノードやグラフの分類タスクにおいて、目に見えないネットワーク上で優れた性能を示すことができる。
論文 参考訳(メタデータ) (2021-11-08T20:56:37Z) - Hierarchical graph neural nets can capture long-range interactions [8.067880298298185]
与えられたグラフの多重解像度表現を利用する階層的メッセージパッシングモデルについて検討する。
これにより、ローカル情報を失うことなく、大きな受容領域にまたがる特徴の学習が容易になる。
階層グラフネット(HGNet)を導入し、任意の2つの接続ノードに対して、最大対数長のメッセージパスパスが存在することを保証します。
論文 参考訳(メタデータ) (2021-07-15T16:24:22Z) - SLAPS: Self-Supervision Improves Structure Learning for Graph Neural
Networks [14.319159694115655]
本稿では,自己超越によるグラフ構造推定のためのより監督的な手法として,自己超越による適応学習とGNNパラメータの同時学習(SLAPS)を提案する。
包括的な実験的研究により、SLAPSは数十万のノードを持つ大きなグラフにスケールし、確立されたベンチマーク上でタスク固有のグラフ構造を学ぶために提案されたいくつかのモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-02-09T18:56:01Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。