論文の概要: Graph Neural Network-Inspired Kernels for Gaussian Processes in
Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2302.05828v1
- Date: Sun, 12 Feb 2023 01:07:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 18:14:19.320891
- Title: Graph Neural Network-Inspired Kernels for Gaussian Processes in
Semi-Supervised Learning
- Title(参考訳): 半教師付き学習におけるガウス過程のグラフニューラルネットワークインスパイアされたカーネル
- Authors: Zehao Niu, Mihai Anitescu, Jie Chen
- Abstract要約: グラフニューラルネットワーク(GNN)は、半教師付き学習において、グラフ構造化データのモデルとして期待できるクラスとして最近登場した。
この帰納バイアスをGPに導入して,グラフ構造化データの予測性能を向上させる。
これらのグラフベースのカーネルは、各GNNと比較して、競合する分類と回帰性能、および時間の長所をもたらすことを示す。
- 参考スコア(独自算出の注目度): 4.644263115284322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian processes (GPs) are an attractive class of machine learning models
because of their simplicity and flexibility as building blocks of more complex
Bayesian models. Meanwhile, graph neural networks (GNNs) emerged recently as a
promising class of models for graph-structured data in semi-supervised learning
and beyond. Their competitive performance is often attributed to a proper
capturing of the graph inductive bias. In this work, we introduce this
inductive bias into GPs to improve their predictive performance for
graph-structured data. We show that a prominent example of GNNs, the graph
convolutional network, is equivalent to some GP when its layers are infinitely
wide; and we analyze the kernel universality and the limiting behavior in
depth. We further present a programmable procedure to compose covariance
kernels inspired by this equivalence and derive example kernels corresponding
to several interesting members of the GNN family. We also propose a
computationally efficient approximation of the covariance matrix for scalable
posterior inference with large-scale data. We demonstrate that these
graph-based kernels lead to competitive classification and regression
performance, as well as advantages in computation time, compared with the
respective GNNs.
- Abstract(参考訳): ガウス過程(GP)は、より複雑なベイズモデルの構築ブロックとしての単純さと柔軟性のため、機械学習モデルの魅力的なクラスである。
一方、グラフニューラルネットワーク(gnns)は、半教師付き学習などのグラフ構造化データの有望なクラスとして最近登場した。
彼らの競争性能は、しばしばグラフ帰納バイアスを適切に捉えることに起因する。
本研究では,このインダクティブバイアスをGPに導入し,グラフ構造化データの予測性能を向上させる。
グラフ畳み込みネットワークであるGNNの顕著な例は、その層が無限に広いときのGPと等価であることを示し、カーネルの普遍性と制限挙動を深く分析する。
さらに,この等価性に触発された共分散カーネルを構成するプログラム可能な手続きと,gnnファミリーのいくつかの興味深いメンバーに対応するサンプルカーネルを提案する。
また、大規模データを用いたスケーラブルな後続推論のための共分散行列の計算効率の良い近似も提案する。
これらのグラフベースのカーネルは,各GNNと比較して,計算時間と競合する分類と回帰性能をもたらすことを示した。
関連論文リスト
- Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Neural Tangent Kernels Motivate Graph Neural Networks with
Cross-Covariance Graphs [94.44374472696272]
グラフニューラルネットワーク(GNN)の文脈におけるNTKとアライメントについて検討する。
その結果、2層GNNのアライメントの最適性に関する理論的保証が確立された。
これらの保証は、入力と出力データの相互共分散の関数であるグラフシフト演算子によって特徴づけられる。
論文 参考訳(メタデータ) (2023-10-16T19:54:21Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Graph Neural Networks with Parallel Neighborhood Aggregations for Graph
Classification [14.112444998191698]
グラフニューラルネットワーク(GNN)モデルを用いたグラフ分類に着目し、並列に配置された近傍グラフ演算子のバンクを用いてノード特徴をプリ計算する。
これらのGNNモデルには、事前計算によるトレーニングと推論時間の削減という自然な利点がある。
本研究は,様々な実世界のデータセット上で,開発モデルが最先端の性能を達成することを数値実験により実証する。
論文 参考訳(メタデータ) (2021-11-22T19:19:40Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。