論文の概要: Node Feature Kernels Increase Graph Convolutional Network Robustness
- arxiv url: http://arxiv.org/abs/2109.01785v1
- Date: Sat, 4 Sep 2021 04:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:47:53.818471
- Title: Node Feature Kernels Increase Graph Convolutional Network Robustness
- Title(参考訳): Node機能カーネルがグラフ畳み込みネットワークロバストネスを向上
- Authors: Mohamed El Amine Seddik, Changmin Wu, Johannes F. Lutzeyer and
Michalis Vazirgiannis
- Abstract要約: グラフ畳み込みネットワーク(GCN)の入力の摂動に対する堅牢性は、ますます重要になっているトピックになりつつある。
本稿では,ランダム行列理論解析が可能である。
グラフ構造の隣接行列にノード特徴カーネルを追加することで、GCNにおけるメッセージパッシングステップの強化がこの問題を解決することが観察された。
- 参考スコア(独自算出の注目度): 19.076912727990326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The robustness of the much-used Graph Convolutional Networks (GCNs) to
perturbations of their input is becoming a topic of increasing importance. In
this paper, the random GCN is introduced for which a random matrix theory
analysis is possible. This analysis suggests that if the graph is sufficiently
perturbed, or in the extreme case random, then the GCN fails to benefit from
the node features. It is furthermore observed that enhancing the message
passing step in GCNs by adding the node feature kernel to the adjacency matrix
of the graph structure solves this problem. An empirical study of a GCN
utilised for node classification on six real datasets further confirms the
theoretical findings and demonstrates that perturbations of the graph structure
can result in GCNs performing significantly worse than Multi-Layer Perceptrons
run on the node features alone. In practice, adding a node feature kernel to
the message passing of perturbed graphs results in a significant improvement of
the GCN's performance, thereby rendering it more robust to graph perturbations.
Our code is publicly available at:https://github.com/ChangminWu/RobustGCN.
- Abstract(参考訳): 広く使われているグラフ畳み込みネットワーク(gcns)の入力の摂動に対する堅牢性が重要性を増している。
本稿では,確率行列理論解析が可能なランダムGCNを提案する。
この分析は、グラフが十分に摂動している場合、あるいは極端な場合がランダムである場合、gcnはノードの機能の恩恵を受けることができないことを示唆する。
さらに、グラフ構造の隣接行列にノード特徴カーネルを追加することで、GCNにおけるメッセージパッシングステップの強化がこの問題を解決することが観察された。
6つの実データセット上のノード分類に使用されるGCNの実証的研究は、理論的な発見をさらに確認し、グラフ構造の摂動によってGCNがノードの特徴だけで実行されるマルチ層パーセプトロンよりも著しく低下することを示した。
実際、摂動グラフのメッセージパッシングにノード機能カーネルを追加すると、GCNのパフォーマンスが大幅に改善され、グラフ摂動に対してより堅牢になる。
私たちのコードは、https://github.com/ChangminWu/RobustGCN.comで公開されています。
関連論文リスト
- Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - What Do Graph Convolutional Neural Networks Learn? [0.0]
グラフ畳み込みニューラルネットワーク(GCN)はグラフニューラルネットワーク(GNN)の共通変種である
近年の文献では、GCNは特定の「特殊条件」下でヘテロ親和性グラフ上での強い性能を達成可能であることが強調されている。
データセットの基盤となるグラフ構造について検討した結果,GCNのSSNC性能は,クラス内のノードの近傍構造における一貫性と特異性に大きく影響していることがわかった。
論文 参考訳(メタデータ) (2022-07-05T06:44:37Z) - ResNorm: Tackling Long-tailed Degree Distribution Issue in Graph Neural
Networks via Normalization [80.90206641975375]
本稿では,正規化によるGNNの性能向上に焦点をあてる。
グラフ中のノード次数の長期分布を調べることにより、GNNの新しい正規化法を提案する。
ResNormの$scale$操作は、尾ノードの精度を向上させるために、ノード単位の標準偏差(NStd)分布を再設定する。
論文 参考訳(メタデータ) (2022-06-16T13:49:09Z) - SStaGCN: Simplified stacking based graph convolutional networks [2.556756699768804]
グラフ畳み込みネットワーク(GCN)は、様々なグラフ構造データ学習タスクにおいて広く研究されている強力なモデルである。
本稿では, SStaGCN (Simplified stacking based GCN) と呼ばれる新しいGCNを提案する。
SStaGCNはGCNの過密問題を効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2021-11-16T05:00:08Z) - Graph Convolutional Networks for Graphs Containing Missing Features [5.426650977249329]
グラフ畳み込みネットワーク(GCN)を欠落した特徴を含むグラフに適応させる手法を提案する。
従来の戦略とは対照的に、我々のアプローチは、欠落した特徴の処理とグラフ学習を、同じニューラルネットワークアーキテクチャ内で統合する。
本研究では,提案手法がノード分類やリンク予測タスクにおいて,命令に基づく手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-09T06:47:21Z) - DeeperGCN: All You Need to Train Deeper GCNs [66.64739331859226]
グラフ畳み込みネットワーク(GCN)はグラフ上での表現学習の力で注目されている。
非常に深いレイヤを積み重ねることのできる畳み込みニューラルネットワーク(CNN)とは異なり、GCNはより深く進むと、勾配の消失、過度なスムース化、過度に適合する問題に悩まされる。
本稿では,非常に深いGCNを正常かつ確実に訓練できるDeeperGCNを提案する。
論文 参考訳(メタデータ) (2020-06-13T23:00:22Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z) - Gated Graph Recurrent Neural Networks [176.3960927323358]
グラフ処理の一般的な学習フレームワークとしてグラフリカレントニューラルネットワーク(GRNN)を導入する。
勾配の消失問題に対処するため,時間,ノード,エッジゲートの3つの異なるゲーティング機構でGRNNを前進させた。
数値的な結果は、GRNNがGNNやRNNよりも優れており、グラフプロセスの時間構造とグラフ構造の両方を考慮することが重要であることを示している。
論文 参考訳(メタデータ) (2020-02-03T22:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。