論文の概要: Hierarchical Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2105.03388v1
- Date: Fri, 7 May 2021 16:47:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:23:02.423127
- Title: Hierarchical Graph Neural Networks
- Title(参考訳): 階層型グラフニューラルネットワーク
- Authors: Stanislav Sobolevsky
- Abstract要約: 本稿では,従来のニューラルネットワークとグラフニューラルネットワークアーキテクチャの点を結びつけることを目的とする。
従来の入力ネットワーク層を補助ネットワーク層の階層構造で補完する階層型グラフニューラルネットワークアーキテクチャを提案する。
これにより、個々のノードの特徴と集約されたネットワークの特徴を可変解像度で同時学習し、個々のノードの特徴学習の収束と安定性を改善することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the recent years, Graph Neural Networks have become increasingly popular
in network analytic and beyond. With that, their architecture noticeable
diverges from the classical multi-layered hierarchical organization of the
traditional neural networks. At the same time, many conventional approaches in
network science efficiently utilize the hierarchical approaches to account for
the hierarchical organization of the networks, and recent works emphasize their
critical importance. This paper aims to connect the dots between the
traditional Neural Network and the Graph Neural Network architectures as well
as the network science approaches, harnessing the power of the hierarchical
network organization. A Hierarchical Graph Neural Network architecture is
proposed, supplementing the original input network layer with the hierarchy of
auxiliary network layers and organizing the computational scheme updating the
node features through both - horizontal network connections within each layer
as well as the vertical connection between the layers. It enables simultaneous
learning of the individual node features along with the aggregated network
features at variable resolution and uses them to improve the convergence and
stability of the individual node feature learning. The proposed Hierarchical
Graph Neural network architecture is successfully evaluated on the network
embedding and modeling as well as network classification, node labeling, and
community tasks and demonstrates increased efficiency in those.
- Abstract(参考訳): 近年、グラフニューラルネットワークは、ネットワーク分析や他の分野で人気が高まっている。
これにより、彼らのアーキテクチャは、従来のニューラルネットワークの古典的な多層階層構造から明らかに逸脱する。
同時に,ネットワーク科学における従来の手法の多くは階層的手法を効率的に活用し,ネットワークの階層的構造を考慮し,その重要性を強調している。
本稿では,従来のニューラルネットワークとグラフニューラルネットワークアーキテクチャのドットを,階層的ネットワーク組織の力を生かしてネットワーク科学的なアプローチと結びつけることを目的とする。
従来の入力ネットワーク層を補助ネットワーク層の階層構造で補完し、各レイヤ内の水平ネットワーク接続と層間の垂直接続の両方を通じてノード機能を更新する計算スキームを編成する階層型グラフニューラルネットワークアーキテクチャを提案する。
これにより、個々のノードの特徴と集約されたネットワークの特徴を可変解像度で同時学習し、個々のノードの特徴学習の収束と安定性を改善することができる。
提案した階層型グラフニューラルネットワークアーキテクチャは、ネットワークの分類、ノードラベル付け、コミュニティタスクと同様に、ネットワークの埋め込みとモデリングで評価され、それらの効率性の向上を示す。
関連論文リスト
- Discovering Message Passing Hierarchies for Mesh-Based Physics Simulation [61.89682310797067]
DHMPを導入し,異なるノード選択手法を用いてメッセージパッシングネットワークの動的階層を学習する。
本実験はDHMPの有効性を実証し,近年の固定階層型メッセージパッシングネットワークと比較して平均22.7%改善した。
論文 参考訳(メタデータ) (2024-10-03T15:18:00Z) - Topological Neural Networks: Mitigating the Bottlenecks of Graph Neural
Networks via Higher-Order Interactions [1.994307489466967]
この研究は、メッセージパッシングニューラルネットワークにおいて、ネットワークの幅、深さ、グラフトポロジがオーバーカッシング現象に与える影響を明らかにする理論的枠組みから始まる。
この研究は、トポロジカルニューラルネットワークを通して高次相互作用と多関係帰納バイアスへと流れていく。
グラフ注意ネットワークにインスパイアされた2つのトポロジカルアテンションネットワーク(Simplicial and Cell Attention Networks)が提案されている。
論文 参考訳(メタデータ) (2024-02-10T08:26:06Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Modularity Optimization as a Training Criterion for Graph Neural
Networks [2.903711704663904]
グラフ畳み込みモデルにおけるネットワークのコミュニティ構造保存目的を組み込んだ学習表現の質に及ぼす効果について検討する。
2つの属性付きビビログラフィーネットワークの実験的評価により、コミュニティ保存目的の組み入れにより、スパースラベル方式における半教師付きノード分類精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-30T21:32:33Z) - Subspace Clustering Based Analysis of Neural Networks [7.451579925406617]
入力セット上でトレーニングされたニューラルネットワーク層の潜在構造から親和性グラフを学習する。
次に、コミュニティ検出のツールを使用して、入力に存在する構造を定量化します。
ネットワークの最終畳み込み層の学習親和性グラフを解析し、入力の局所的近傍がネットワークによる分類にどのように影響するかを示す。
論文 参考訳(メタデータ) (2021-07-02T22:46:40Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Modeling Dynamic Heterogeneous Network for Link Prediction using
Hierarchical Attention with Temporal RNN [16.362525151483084]
我々はDyHATRと呼ばれる新しい動的ヘテロジニアスネットワーク埋め込み法を提案する。
階層的な注意を使って異質な情報を学習し、進化パターンを捉えるために時間的注意を伴う繰り返しニューラルネットワークを組み込む。
リンク予測のための4つの実世界のデータセットに対して,本手法をベンチマークした。
論文 参考訳(メタデータ) (2020-04-01T17:16:47Z) - Progressive Graph Convolutional Networks for Semi-Supervised Node
Classification [97.14064057840089]
グラフ畳み込みネットワークは、半教師付きノード分類のようなグラフベースのタスクに対処することに成功した。
本稿では,コンパクトかつタスク固有のグラフ畳み込みネットワークを自動構築する手法を提案する。
論文 参考訳(メタデータ) (2020-03-27T08:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。