論文の概要: Pathfinder Discovery Networks for Neural Message Passing
- arxiv url: http://arxiv.org/abs/2010.12878v2
- Date: Tue, 16 Feb 2021 22:45:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 12:25:53.066554
- Title: Pathfinder Discovery Networks for Neural Message Passing
- Title(参考訳): ニューラルメッセージパッシングのためのパスファインダー発見ネットワーク
- Authors: Benedek Rozemberczki, Peter Englert, Amol Kapoor, Martin Blais, Bryan
Perozzi
- Abstract要約: Pathfinder Discovery Networks (PDN) は、多重ネットワーク上でメッセージパッシンググラフを共同で学習する手法である。
PDNは、各エッジの集約重みを誘導的に学習し、下流学習タスクに最適な結果をもたらすように最適化する。
- 参考スコア(独自算出の注目度): 8.633430288397376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we propose Pathfinder Discovery Networks (PDNs), a method for
jointly learning a message passing graph over a multiplex network with a
downstream semi-supervised model. PDNs inductively learn an aggregated weight
for each edge, optimized to produce the best outcome for the downstream
learning task. PDNs are a generalization of attention mechanisms on graphs
which allow flexible construction of similarity functions between nodes, edge
convolutions, and cheap multiscale mixing layers. We show that PDNs overcome
weaknesses of existing methods for graph attention (e.g. Graph Attention
Networks), such as the diminishing weight problem. Our experimental results
demonstrate competitive predictive performance on academic node classification
tasks. Additional results from a challenging suite of node classification
experiments show how PDNs can learn a wider class of functions than existing
baselines. We analyze the relative computational complexity of PDNs, and show
that PDN runtime is not considerably higher than static-graph models. Finally,
we discuss how PDNs can be used to construct an easily interpretable attention
mechanism that allows users to understand information propagation in the graph.
- Abstract(参考訳): 本研究では,下流半教師付きモデルを用いたマルチプレックスネットワーク上でメッセージパッシンググラフを共同学習する手法であるパスファインダーディスカバリネットワーク(pdns)を提案する。
PDNは各エッジの集約重みを誘導的に学習し、下流学習タスクに最適な結果をもたらすように最適化する。
PDNはグラフ上の注意機構の一般化であり、ノード間の類似性関数、エッジ畳み込み、安価なマルチスケール混合層を柔軟に構築することができる。
本研究では,pdnsが既存のグラフ注目手法(グラフ注意ネットワークなど)の弱点を克服していることを示す。
実験結果は,アカデミックノード分類タスクにおける競合予測性能を示す。
ノード分類実験の挑戦的なスイートによる追加結果は、PDNが既存のベースラインよりも広いクラスの関数を学習できることを示している。
我々はPDNの相対計算複雑性を解析し、PDNランタイムが静的グラフモデルよりもかなり高くないことを示す。
最後に、ユーザがグラフ内の情報伝達を理解できるように、PDNを用いて容易に解釈可能なアテンションメカニズムを構築する方法について論じる。
関連論文リスト
- GraphRARE: Reinforcement Learning Enhanced Graph Neural Network with Relative Entropy [21.553180564868306]
GraphRAREはノード相対エントロピーと深層強化学習に基づいて構築されたフレームワークである。
革新的なノード相対エントロピーは、ノードペア間の相互情報を測定するために使用される。
グラフトポロジを最適化するために,深層強化学習に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-15T11:30:18Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Compressing Deep Graph Neural Networks via Adversarial Knowledge
Distillation [41.00398052556643]
本稿では,GraphAKD というグラフモデルのための新しい知識蒸留フレームワークを提案する。
識別器は教師の知識と学生が継承するものを区別し、学生GNNはジェネレータとして働き、識別器を騙す。
その結果、GraphAKDは複雑な教師GNNからコンパクトな学生GNNに正確な知識を伝達できることがわかった。
論文 参考訳(メタデータ) (2022-05-24T00:04:43Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Inferential SIR-GN: Scalable Graph Representation Learning [0.4699313647907615]
グラフ表現学習法は、ネットワーク内のノードの数値ベクトル表現を生成する。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
このモデルではノードの構造的役割情報を捉えることができ、ノードやグラフの分類タスクにおいて、目に見えないネットワーク上で優れた性能を示すことができる。
論文 参考訳(メタデータ) (2021-11-08T20:56:37Z) - Deep Structured Instance Graph for Distilling Object Detectors [82.16270736573176]
本稿では,検出システム内の情報を利用して,検出知識の蒸留を容易にするための簡単な知識構造を提案する。
我々は,1段と2段の両方の検出器上で,多様な学生-教師ペアによるCOCOオブジェクト検出の課題に対して,新しい最先端の成果を達成した。
論文 参考訳(メタデータ) (2021-09-27T08:26:00Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Pointer Graph Networks [48.44209547013781]
グラフニューラルネットワーク(GNN)は通常、前もって知られていると仮定される静的グラフに適用される。
Pointer Graph Networks (PGNs) モデル一般化能力を改善するために、追加の推論エッジを備えた拡張セットまたはグラフ。
PGNは各ノードが別のノードを動的に指し、メッセージがこれらのポインタを渡ることを可能にする。
論文 参考訳(メタデータ) (2020-06-11T12:52:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。