論文の概要: Graph Tree Neural Networks
- arxiv url: http://arxiv.org/abs/2111.00424v1
- Date: Sun, 31 Oct 2021 07:58:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 15:19:03.489447
- Title: Graph Tree Neural Networks
- Title(参考訳): グラフツリーニューラルネットワーク
- Authors: Seokjun Kim, Jaeeun Jang, Hee-seok Jung, Hyeoncheol Kim
- Abstract要約: グラフツリーニューラルネットワーク(GTNN)は、人間のニューラルネットワークの構造を分析することによって、既存のネットワークの問題を解決するように設計されている。
GTNNでは、情報ユニットはグラフの形式と関連付けられ、その後再び大きな情報の単位となり、他の情報ユニットと関係を持つ。
- 参考スコア(独自算出の注目度): 0.43012765978447565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have recently shown good performance in various
fields. In this paper, we propose graph tree neural networks (GTNNs) designed
to solve the problems of existing networks by analyzing the structure of human
neural networks. In GTNNs, information units are related to the form of a graph
and then they become a bigger unit of information again and have a relationship
with other information units. At this point, the unit of information is a set
of neurons, and we can express it as a vector with GTNN. Defining the starting
and ending points in a single graph is difficult, and a tree cannot express the
relationship among sibling nodes. However, a graph tree can be expressed using
leaf and root nodes as its starting and ending points and the relationship
among sibling nodes. Depth-first convolution (DFC) encodes the interaction
result from leaf nodes to the root node in a bottom-up approach, and
depth-first deconvolution (DFD) decodes the interaction result from the root
node to the leaf nodes in a top-down approach. GTNN is data-driven learning in
which the number of convolutions varies according to the depth of the tree.
Moreover, learning features of different types together is possible.
Supervised, unsupervised, and semi-supervised learning using graph tree
recursive neural network (GTR) , graph tree recursive attention networks
(GTRAs), and graph tree recursive autoencoders (GTRAEs) are introduced in this
paper. We experimented with a simple toy test with source code dataset.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、最近、様々な分野で優れたパフォーマンスを示している。
本稿では,既存のネットワークの問題を解決するために,人間のニューラルネットワークの構造を解析し,グラフツリーニューラルネットワーク(gtnn)を提案する。
GTNNでは、情報ユニットはグラフの形式と関連付けられ、その後再び大きな情報の単位となり、他の情報ユニットと関係を持つ。
この時点で、情報の単位はニューロンの集合であり、GTNNでベクトルとして表現することができる。
単一のグラフで開始点と終了点を定義することは困難であり、ツリーは兄弟ノード間の関係を表現できない。
しかし、グラフツリーは、リーフノードとルートノードをその開始点と終了点、および兄弟ノード間の関係として表現することができる。
深さ優先畳み込み(DFC)は、葉ノードから根ノードへの相互作用結果をボトムアップアプローチで符号化し、深さ第一畳み込み(DFD)は根ノードから葉ノードへの相互作用結果をトップダウンアプローチで復号する。
GTNNはデータ駆動学習であり、ツリーの深さに応じて畳み込みの回数が変化する。
さらに、異なるタイプの特徴を同時に学習することも可能である。
本稿では,グラフツリー再帰型ニューラルネットワーク(GTR),グラフツリー再帰型アテンションネットワーク(GTRA),グラフツリー再帰型オートエンコーダ(GTRAE)を用いた教師なし,半教師付き学習を紹介する。
ソースコードデータセットで簡単なトイテストを実施しました。
関連論文リスト
- NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - GTNet: A Tree-Based Deep Graph Learning Architecture [8.50892442127182]
本稿では,グラフのツリー表現から派生した,新しい汎用メッセージパッシング方式を用いた深層グラフ学習アーキテクチャを提案する。
2つのグラフ表現学習モデルが提案されている。GTNetアーキテクチャ - Graph Tree Attention Network (GTAN) と Graph Tree Convolution Network (GTCN) である。
論文 参考訳(メタデータ) (2022-04-27T09:43:14Z) - Deformable Graph Convolutional Networks [12.857403315970231]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの表現能力を大幅に改善した。
本稿では,複数の潜在空間における畳み込みを適応的に行うDeformable Graph Convolutional Networks (Deformable GCNs)を提案する。
我々のフレームワークはノードの位置埋め込みを同時に学習し、ノード間の関係をエンドツーエンドで決定する。
論文 参考訳(メタデータ) (2021-12-29T07:55:29Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Simplicial Convolutional Neural Networks [36.078200422283835]
近年,信号処理やニューラルネットワークが拡張されて,グラフのデータ処理や学習が行われている。
本稿では,単純な畳み込みニューラルネットワーク(SCNN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-10-06T08:52:55Z) - Reasoning Graph Networks for Kinship Verification: from Star-shaped to
Hierarchical [85.0376670244522]
階層型推論グラフネットワークの学習による顔の親和性検証の問題点について検討する。
より強力で柔軟なキャパシティを利用するために,星型推論グラフネットワーク(S-RGN)を開発した。
また、より強力で柔軟なキャパシティを利用する階層型推論グラフネットワーク(H-RGN)も開発しています。
論文 参考訳(メタデータ) (2021-09-06T03:16:56Z) - Neural Trees for Learning on Graphs [19.05038106825347]
グラフニューラルネットワーク(GNN)は、グラフを学習するための柔軟で強力なアプローチとして登場した。
我々はニューラルツリーという新しいGNNアーキテクチャを提案する。
神経木アーキテクチャは無向グラフ上の任意の滑らかな確率分布関数を近似できることを示す。
論文 参考訳(メタデータ) (2021-05-15T17:08:20Z) - TreeRNN: Topology-Preserving Deep GraphEmbedding and Learning [24.04035265351755]
本研究では,グラフを木に転送する手法について検討し,特徴統合を局所的からグローバル的へと導くための明確な順序を学習する。
グラフツリー画像からパターンを最もよく学習するために,2次元RNNアーキテクチャであるTreeRNNを提案する。
論文 参考訳(メタデータ) (2020-06-21T15:22:24Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。