論文の概要: Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes
- arxiv url: http://arxiv.org/abs/2002.12168v1
- Date: Wed, 26 Feb 2020 10:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 13:58:13.383600
- Title: Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes
- Title(参考訳): Infinitely Wide Graph Convolutional Networks: ガウス過程による半教師付き学習
- Authors: Jilin Hu, Jianbing Shen, Bin Yang, Ling Shao
- Abstract要約: グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 144.6048446370369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph convolutional neural networks~(GCNs) have recently demonstrated
promising results on graph-based semi-supervised classification, but little
work has been done to explore their theoretical properties. Recently, several
deep neural networks, e.g., fully connected and convolutional neural networks,
with infinite hidden units have been proved to be equivalent to Gaussian
processes~(GPs). To exploit both the powerful representational capacity of GCNs
and the great expressive power of GPs, we investigate similar properties of
infinitely wide GCNs. More specifically, we propose a GP regression model via
GCNs~(GPGC) for graph-based semi-supervised learning. In the process, we
formulate the kernel matrix computation of GPGC in an iterative analytical
form. Finally, we derive a conditional distribution for the labels of
unobserved nodes based on the graph structure, labels for the observed nodes,
and the feature matrix of all the nodes. We conduct extensive experiments to
evaluate the semi-supervised classification performance of GPGC and demonstrate
that it outperforms other state-of-the-art methods by a clear margin on all the
datasets while being efficient.
- Abstract(参考訳): グラフ畳み込みニューラルネットワーク~(GCN)はグラフに基づく半教師付き分類の有望な結果を最近示したが、その理論的性質を探求する研究はほとんど行われていない。
近年では、無限に隠れた単位を持つ完全連結・畳み込みニューラルネットワークなどの深層ニューラルネットワークがガウス過程~(GP)と等価であることが証明されている。
GCNの強力な表現能力とGPの大きな表現力の両方を活用するために、無限に広いGCNの類似特性について検討する。
具体的には,グラフに基づく半教師付き学習のためのGCNs~GPGCを用いたGP回帰モデルを提案する。
この過程において、gpgcの核行列計算を反復解析形式で定式化する。
最後に、グラフ構造に基づく観測されていないノードのラベル、観測されたノードのラベル、および全てのノードの特徴行列の条件分布を導出する。
GPGCの半教師付き分類性能を評価するための広範囲な実験を行い、他の最先端手法よりも効率的かつ明確なマージンで優れていることを示した。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
グラフニューラルネットワーク(GNN)は、グラフ畳み込みの連続的な応用により、隣接ノードからの情報を結合する。
ノードレベルとグラフレベルの両方のタスクにおけるGNNの一般化ギャップについて検討する。
トレーニンググラフのノード数によって一般化ギャップが減少することを示す。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Graph Convolutional Network For Semi-supervised Node Classification With Subgraph Sketching [0.27624021966289597]
本稿では,GLDGCNと呼ばれるグラフ学習型グラフ畳み込みニューラルネットワークを提案する。
半教師付きノード分類タスクにGLDGCNを適用する。
ベースライン手法と比較して,3つの引用ネットワークの分類精度が向上する。
論文 参考訳(メタデータ) (2024-04-19T09:08:12Z) - Graph Neural Network-Inspired Kernels for Gaussian Processes in
Semi-Supervised Learning [4.644263115284322]
グラフニューラルネットワーク(GNN)は、半教師付き学習において、グラフ構造化データのモデルとして期待できるクラスとして最近登場した。
この帰納バイアスをGPに導入して,グラフ構造化データの予測性能を向上させる。
これらのグラフベースのカーネルは、各GNNと比較して、競合する分類と回帰性能、および時間の長所をもたらすことを示す。
論文 参考訳(メタデータ) (2023-02-12T01:07:56Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - Wide Graph Neural Networks: Aggregation Provably Leads to Exponentially
Trainability Loss [17.39060566854841]
グラフ畳み込みネットワーク(GCN)とその変種は、グラフ構造化データを扱う上で大きな成功を収めた。
深いGCNが過スムージング問題に苦しむことはよく知られています。
深部GCNの表現性と訓練性を研究するための理論的分析はほとんど行われていない。
論文 参考訳(メタデータ) (2021-03-03T11:06:12Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。