論文の概要: Neural Trees for Learning on Graphs
- arxiv url: http://arxiv.org/abs/2105.07264v1
- Date: Sat, 15 May 2021 17:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 08:56:38.694432
- Title: Neural Trees for Learning on Graphs
- Title(参考訳): グラフ学習のための神経木
- Authors: Rajat Talak, Siyi Hu, Lisa Peng, and Luca Carlone
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフを学習するための柔軟で強力なアプローチとして登場した。
我々はニューラルツリーという新しいGNNアーキテクチャを提案する。
神経木アーキテクチャは無向グラフ上の任意の滑らかな確率分布関数を近似できることを示す。
- 参考スコア(独自算出の注目度): 19.05038106825347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as a flexible and powerful approach
for learning over graphs. Despite this success, existing GNNs are constrained
by their local message-passing architecture and are provably limited in their
expressive power. In this work, we propose a new GNN architecture -- the Neural
Tree. The neural tree architecture does not perform message passing on the
input graph but on a tree-structured graph, called the H-tree, that is
constructed from the input graph. Nodes in the H-tree correspond to subgraphs
in the input graph, and they are reorganized in a hierarchical manner such that
a parent-node of a node in the H-tree always corresponds to a larger subgraph
in the input graph. We show that the neural tree architecture can approximate
any smooth probability distribution function over an undirected graph, as well
as emulate the junction tree algorithm. We also prove that the number of
parameters needed to achieve an $\epsilon$-approximation of the distribution
function is exponential in the treewidth of the input graph, but linear in its
size. We apply the neural tree to semi-supervised node classification in 3D
scene graphs, and show that these theoretical properties translate into
significant gains in prediction accuracy, over the more traditional GNN
architectures.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフを学習するための柔軟で強力なアプローチとして登場した。
この成功にもかかわらず、既存のGNNはローカルなメッセージパッシングアーキテクチャによって制約されており、表現力は確実に制限されている。
本稿ではニューラルツリーという新しいGNNアーキテクチャを提案する。
ニューラルツリーアーキテクチャは、入力グラフでメッセージパッシングを行うのではなく、入力グラフから構築されたH木と呼ばれる木構造グラフでメッセージパッシングを行う。
h-ツリー内のノードは入力グラフのサブグラフに対応し、h-ツリー内のノードの親ノードが常に入力グラフのより大きなサブグラフに対応するように階層的に再構成される。
ニューラルツリーアーキテクチャは、無向グラフ上の任意の滑らかな確率分布関数を近似し、またジャンクションツリーアルゴリズムをエミュレートできることを示す。
また、分布関数の$\epsilon$-approximationを達成するために必要なパラメータの数は、入力グラフのツリー幅において指数関数であるが、そのサイズは線型であることを示す。
ニューラルツリーを3次元シーングラフの半教師付きノード分類に適用し、これらの理論的性質が従来のGNNアーキテクチャよりも精度の高い精度に変換されることを示す。
関連論文リスト
- NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - TREE-G: Decision Trees Contesting Graph Neural Networks [33.364191419692105]
TREE-Gは、グラフデータに特化した新しい分割関数を導入することで、標準的な決定木を変更する。
グラフニューラルネットワーク(GNN)やグラフカーネル(Graph Kernels)などのグラフ学習アルゴリズムでは,TREE-Gが他のツリーベースモデルより一貫して優れていることが示されています。
論文 参考訳(メタデータ) (2022-07-06T15:53:17Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - GTNet: A Tree-Based Deep Graph Learning Architecture [8.50892442127182]
本稿では,グラフのツリー表現から派生した,新しい汎用メッセージパッシング方式を用いた深層グラフ学習アーキテクチャを提案する。
2つのグラフ表現学習モデルが提案されている。GTNetアーキテクチャ - Graph Tree Attention Network (GTAN) と Graph Tree Convolution Network (GTCN) である。
論文 参考訳(メタデータ) (2022-04-27T09:43:14Z) - Graph Tree Neural Networks [0.43012765978447565]
グラフツリーニューラルネットワーク(GTNN)は、人間のニューラルネットワークの構造を分析することによって、既存のネットワークの問題を解決するように設計されている。
GTNNでは、情報ユニットはグラフの形式と関連付けられ、その後再び大きな情報の単位となり、他の情報ユニットと関係を持つ。
論文 参考訳(メタデータ) (2021-10-31T07:58:00Z) - Hierarchical graph neural nets can capture long-range interactions [8.067880298298185]
与えられたグラフの多重解像度表現を利用する階層的メッセージパッシングモデルについて検討する。
これにより、ローカル情報を失うことなく、大きな受容領域にまたがる特徴の学習が容易になる。
階層グラフネット(HGNet)を導入し、任意の2つの接続ノードに対して、最大対数長のメッセージパスパスが存在することを保証します。
論文 参考訳(メタデータ) (2021-07-15T16:24:22Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - TreeRNN: Topology-Preserving Deep GraphEmbedding and Learning [24.04035265351755]
本研究では,グラフを木に転送する手法について検討し,特徴統合を局所的からグローバル的へと導くための明確な順序を学習する。
グラフツリー画像からパターンを最もよく学習するために,2次元RNNアーキテクチャであるTreeRNNを提案する。
論文 参考訳(メタデータ) (2020-06-21T15:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。