論文の概要: NCGNN: Node-level Capsule Graph Neural Network
- arxiv url: http://arxiv.org/abs/2012.03476v1
- Date: Mon, 7 Dec 2020 06:46:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:08:49.482000
- Title: NCGNN: Node-level Capsule Graph Neural Network
- Title(参考訳): NCGNN:ノードレベルのカプセルグラフニューラルネットワーク
- Authors: Rui Yang, Wenrui Dai, Chenglin Li, Junni Zou, Hongkai Xiong
- Abstract要約: ノードレベルカプセルグラフニューラルネットワーク(ncgnn)は、ノードをカプセル群として表現する。
凝集に適したカプセルを適応的に選択する新しい動的ルーティング手法を開発した。
NCGNNは、過度にスムースな問題に対処でき、分類のためのより良いノード埋め込みを生成することで、芸術の状態を上回ります。
- 参考スコア(独自算出の注目度): 45.23653314235767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Message passing has evolved as an effective tool for designing Graph Neural
Networks (GNNs). However, most existing works naively sum or average all the
neighboring features to update node representations, which suffers from the
following limitations: (1) lack of interpretability to identify crucial node
features for GNN's prediction; (2) over-smoothing issue where repeated
averaging aggregates excessive noise, making features of nodes in different
classes over-mixed and thus indistinguishable. In this paper, we propose the
Node-level Capsule Graph Neural Network (NCGNN) to address these issues with an
improved message passing scheme. Specifically, NCGNN represents nodes as groups
of capsules, in which each capsule extracts distinctive features of its
corresponding node. For each node-level capsule, a novel dynamic routing
procedure is developed to adaptively select appropriate capsules for
aggregation from a subgraph identified by the designed graph filter.
Consequently, as only the advantageous capsules are aggregated and harmful
noise is restrained, over-mixing features of interacting nodes in different
classes tends to be avoided to relieve the over-smoothing issue. Furthermore,
since the graph filter and the dynamic routing identify a subgraph and a subset
of node features that are most influential for the prediction of the model,
NCGNN is inherently interpretable and exempt from complex post-hoc
explanations. Extensive experiments on six node classification benchmarks
demonstrate that NCGNN can well address the over-smoothing issue and
outperforms the state of the arts by producing better node embeddings for
classification.
- Abstract(参考訳): メッセージパッシングは、グラフニューラルネットワーク(GNN)を設計するための効果的なツールとして進化してきた。
しかし、既存のほとんどの研究は、ノード表現を更新するために隣り合う全ての機能を鼻でまとめたり平均したりしており、これは(1)GNNの予測にとって重要なノード特徴を特定するための解釈性の欠如、(2)繰り返し平均化が過度なノイズを集約し、異なるクラスのノードの特徴を過度に混合し、区別できない問題である。
本稿では,これらの問題に対して,改良されたメッセージパッシング方式を用いて,ノードレベルのカプセルグラフニューラルネットワーク(NCGNN)を提案する。
具体的には、NCGNNは、各カプセルが対応するノードの特徴を抽出するカプセルのグループとしてノードを表現している。
各ノードレベルカプセルに対して,設計したグラフフィルタで識別されたサブグラフからアグリゲーションに適したカプセルを適応的に選択する新しい動的ルーティング手法を開発した。
したがって、有利なカプセルのみを集約し、有害なノイズを抑えるため、異なるクラスの相互作用ノードの過剰混合特性は回避され、過密問題を緩和する傾向にある。
さらに、グラフフィルタと動的ルーティングは、モデル予測に最も影響を及ぼす部分グラフとノード特徴のサブセットを識別するため、NAGNNは本質的に解釈可能であり、複雑なポストホックな説明を除外する。
6つのノード分類ベンチマークの大規模な実験により、NCGNNは過度にスムースな問題に対処でき、分類のためのより良いノード埋め込みを生成することにより、芸術の状態を上回ります。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - GraphRARE: Reinforcement Learning Enhanced Graph Neural Network with
Relative Entropy [22.363706946016872]
GraphRAREはノード相対エントロピーと深層強化学習に基づいて構築されたフレームワークである。
革新的なノード相対エントロピーは、ノードペア間の相互情報を測定するために使用される。
グラフトポロジを最適化するために,深層強化学習に基づくアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-15T11:30:18Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Deep Graph Neural Networks via Flexible Subgraph Aggregation [50.034313206471694]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習し、近隣情報を集約することでノードの表現を学ぶ。
本稿では,サブグラフアグリゲーションの観点から,GNNの表現力を評価する。
サブグラフアグリゲーションの異なるホップをより柔軟に活用できるサンプリングベースノードレベル残余モジュール(SNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - NDGGNET-A Node Independent Gate based Graph Neural Networks [6.155450481110693]
疎結合なノードでは、単一のGNN層を通して十分な情報を得るのは難しい。
この論文では、通常のGNNモデルでより多くのレイヤに対応可能な新しいフレームワークを定義する。
実験結果から,提案モデルがモデル深度を効果的に向上し,複数のデータセットで良好に動作できることが示唆された。
論文 参考訳(メタデータ) (2022-05-11T08:51:04Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [5.431036185361236]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Graph Pointer Neural Networks [11.656981519694218]
上述の課題に対処するために,グラフポインタニューラルネットワーク(GPNN)を提案する。
我々は、多数のマルチホップ地区から最も関連性の高いノードを選択するためにポインタネットワークを利用する。
GPNNは最先端手法の分類性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-10-03T10:18:25Z) - Position-based Hash Embeddings For Scaling Graph Neural Networks [8.87527266373087]
グラフニューラルネットワーク(GNN)は、ノードのエゴネットワークのトポロジとエゴネットワークのノードの特徴を考慮したノード表現を演算する。
ノードが高品質な機能を持っていない場合、GNNはノードの埋め込みを計算するために埋め込み層を学び、それらを入力機能として使用する。
この埋め込みレイヤに関連するメモリを削減するため、NLPやレコメンダシステムのようなアプリケーションで一般的に使用されるハッシュベースのアプローチが利用可能である。
本稿では,グラフ内のノードの位置を利用して,必要なメモリを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T22:42:25Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。