論文の概要: Elastic Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2107.06996v1
- Date: Mon, 5 Jul 2021 01:36:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-18 12:34:15.808512
- Title: Elastic Graph Neural Networks
- Title(参考訳): 弾性グラフニューラルネットワーク
- Authors: Xiaorui Liu, Wei Jin, Yao Ma, Yaxin Li, Hua Liu, Yiqi Wang, Ming Yan,
Jiliang Tang
- Abstract要約: 我々は$ell$と$ell$ベースのグラフ平滑化に基づくGNN(Elastic GNN)のファミリーを紹介する。
特に,GNNへの新規で汎用的なメッセージパッシング方式を提案する。
半教師付き学習タスクの実験では、提案したElastic GNNがベンチマークデータセットの適応性を向上させることが示されている。
- 参考スコア(独自算出の注目度): 32.805937635335255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While many existing graph neural networks (GNNs) have been proven to perform
$\ell_2$-based graph smoothing that enforces smoothness globally, in this work
we aim to further enhance the local smoothness adaptivity of GNNs via
$\ell_1$-based graph smoothing. As a result, we introduce a family of GNNs
(Elastic GNNs) based on $\ell_1$ and $\ell_2$-based graph smoothing. In
particular, we propose a novel and general message passing scheme into GNNs.
This message passing algorithm is not only friendly to back-propagation
training but also achieves the desired smoothing properties with a theoretical
convergence guarantee. Experiments on semi-supervised learning tasks
demonstrate that the proposed Elastic GNNs obtain better adaptivity on
benchmark datasets and are significantly robust to graph adversarial attacks.
The implementation of Elastic GNNs is available at
\url{https://github.com/lxiaorui/ElasticGNN}.
- Abstract(参考訳): 多くの既存のグラフニューラルネットワーク(GNN)は、世界中で滑らかさを強制する$\ell_2$-based graph smoothingを実行することが証明されているが、本研究では、$\ell_1$-based graph smoothingを通じて、GNNの局所的滑らかさ適応性を強化することを目的としている。
その結果,$\ell_1$および$\ell_2$-based graph smoothingに基づくGNN(Elastic GNN)のファミリーを導入する。
特に,GNNへの新規で汎用的なメッセージパッシング方式を提案する。
このメッセージパッシングアルゴリズムは、バックプロパゲーショントレーニングに適応するだけでなく、理論的収束保証により所望の平滑化特性を達成する。
半教師付き学習タスクの実験では、提案したElastic GNNがベンチマークデータセットの適応性を向上し、グラフ敵攻撃に対して極めて堅牢であることが示された。
Elastic GNNの実装は、 \url{https://github.com/lxiaorui/ElasticGNN}で公開されている。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Classifying Nodes in Graphs without GNNs [50.311528896010785]
本稿では,完全GNNフリーなノード分類手法を提案する。
本手法は, 滑らかさ制約, 擬似ラベル反復, 近傍ラベルヒストグラムの3つの主要成分からなる。
論文 参考訳(メタデータ) (2024-02-08T18:59:30Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Robust Graph Neural Networks using Weighted Graph Laplacian [1.8292714902548342]
グラフニューラルネットワーク(GNN)は、入力データにおけるノイズや敵攻撃に対して脆弱である。
重み付きラプラシアンGNN(RWL-GNN)として知られるGNNの強化のための汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:36:35Z) - $p$-Laplacian Based Graph Neural Networks [27.747195341003263]
グラフネットワーク(GNN)は、グラフ上の半教師付きノード分類において優れた性能を示す。
我々は、離散正規化フレームワークからメッセージパッシング機構を導出する$p$GNNと呼ばれる新しい$p$LaplacianベースのGNNモデルを提案する。
新たなメッセージパッシング機構は低域通過フィルタと高域通過フィルタを同時に動作させることで,ホモ親和性グラフとヘテロ親和性グラフの両方に対して$p$GNNを有効にすることができることを示す。
論文 参考訳(メタデータ) (2021-11-14T13:16:28Z) - Graph Neural Networks with Local Graph Parameters [1.8600631687568656]
ローカルグラフパラメータは、任意のグラフニューラルネットワーク(GNN)アーキテクチャに追加することができる。
我々の結果は、有限モデル理論と有限変数論理の深い結果とGNNを結びつける。
論文 参考訳(メタデータ) (2021-06-12T07:43:51Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Rethinking Graph Regularization for Graph Neural Networks [21.32758655943999]
グラフラプラシア正規化は既存のグラフニューラルネットワーク(GNN)にほとんど恩恵を与えないことを示す。
我々は、伝播正則化(P-reg)と呼ばれるグラフラプラシア正則化の単純だが非自明な変種を提案する。
我々はP-regがノードレベルのタスクとグラフレベルのタスクの両方において既存のGNNモデルの性能を効果的に向上できることを実証した。
論文 参考訳(メタデータ) (2020-09-04T07:04:51Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Graph Random Neural Network for Semi-Supervised Learning on Graphs [36.218650686748546]
グラフニューラルネットワーク(GNN)が広範に研究されているグラフ上での半教師あり学習の問題について検討する。
既存のGNNの多くは、ラベル付きノードが不足している場合、本質的に過度なスムース、非ロバスト性、および弱一般化の制限に悩まされている。
本稿では,これらの問題に対処するシンプルなフレームワークである Graph R NEURAL NETWORKS (GRAND) を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。