論文の概要: From Spectral Graph Convolutions to Large Scale Graph Convolutional
Networks
- arxiv url: http://arxiv.org/abs/2207.05669v1
- Date: Tue, 12 Jul 2022 16:57:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 14:26:36.448613
- Title: From Spectral Graph Convolutions to Large Scale Graph Convolutional
Networks
- Title(参考訳): スペクトルグラフ畳み込みから大規模グラフ畳み込みネットワークへ
- Authors: Matteo Bunino
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、様々なタスクにうまく適用された強力な概念であることが示されている。
古典グラフ理論の関連部分を含むGCNの定義への道を開いた理論を考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Convolutional Networks (GCNs) have been shown to be a powerful concept
that has been successfully applied to a large variety of tasks across many
domains over the past years. In this work we study the theory that paved the
way to the definition of GCN, including related parts of classical graph
theory. We also discuss and experimentally demonstrate key properties and
limitations of GCNs such as those caused by the statistical dependency of
samples, introduced by the edges of the graph, which causes the estimates of
the full gradient to be biased. Another limitation we discuss is the negative
impact of minibatch sampling on the model performance. As a consequence, during
parameter update, gradients are computed on the whole dataset, undermining
scalability to large graphs. To account for this, we research alternative
methods which allow to safely learn good parameters while sampling only a
subset of data per iteration. We reproduce the results reported in the work of
Kipf et al. and propose an implementation inspired to SIGN, which is a
sampling-free minibatch method. Eventually we compare the two implementations
on a benchmark dataset, proving that they are comparable in terms of prediction
accuracy for the task of semi-supervised node classification.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、過去数年間に多くのドメインで様々なタスクにうまく適用された強力な概念であることが示されている。
本研究では、古典グラフ理論の関連部分を含むGCNの定義への道を開いた理論について研究する。
また,全勾配の推定値に偏りを与えるグラフのエッジによって導入されたサンプルの統計的依存性など,gcnの重要な特性や制限についても検討し,実験的に検証した。
もうひとつ論じる制限は、ミニバッチサンプリングがモデル性能に与える影響である。
その結果、パラメータ更新の間、データセット全体の勾配が計算され、大きなグラフへのスケーラビリティが損なわれる。
そこで本研究では,1イテレーションあたりのデータのサブセットのみをサンプリングしながら,適切なパラメータを安全に学習できる代替手法について検討する。
kipfらの研究で報告された結果を再現し、サンプルフリーミニバッチ法であるsignにインスパイアされた実装を提案する。
最終的に、ベンチマークデータセット上の2つの実装を比較し、半教師付きノード分類のタスクの予測精度で比較できることを示した。
関連論文リスト
- Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Neighborhood Random Walk Graph Sampling for Regularized Bayesian Graph
Convolutional Neural Networks [0.6236890292833384]
本稿では,近隣ランダムウォークサンプリング(BGCN-NRWS)を用いたベイジアングラフ畳み込みネットワーク(Bayesian Graph Convolutional Network)を提案する。
BGCN-NRWSは、グラフ構造を利用したマルコフ・チェイン・モンテカルロ(MCMC)に基づくグラフサンプリングアルゴリズムを使用し、変分推論層を用いてオーバーフィッティングを低減し、半教師付きノード分類における最先端と比較して一貫して競合する分類結果を得る。
論文 参考訳(メタデータ) (2021-12-14T20:58:27Z) - On the Importance of Sampling in Learning Graph Convolutional Networks [13.713485304798368]
Graph Convolutional Networks (GCNs) は、様々なグラフ関連アプリケーションにおいて、目覚ましい進歩を遂げている。
その成功にもかかわらず、大きなグラフ上でのgcnのトレーニングは計算とメモリの問題に苦しむ。
メモリ予算下で任意のサンプリングメソッドを高速化できる一般的なtextbftextitdoubly variance reductionスキーマを記述・解析する。
論文 参考訳(メタデータ) (2021-03-03T21:31:23Z) - SSFG: Stochastically Scaling Features and Gradients for Regularizing
Graph Convolution Networks [7.075802972628797]
繰り返しグラフ畳み込みを適用すると、余計な問題を引き起こす可能性がある。
この問題に対処するための正規化手法を提案する。
本手法は,ベースライングラフネットワーク全体の性能を効果的に改善する。
論文 参考訳(メタデータ) (2021-02-20T12:59:48Z) - Pseudoinverse Graph Convolutional Networks: Fast Filters Tailored for
Large Eigengaps of Dense Graphs and Hypergraphs [0.0]
Graph Convolutional Networks (GCNs) は、グラフベースのデータセットで半教師付き分類を行うツールとして成功している。
本稿では,三部フィルタ空間が高密度グラフを対象とする新しいGCN変種を提案する。
論文 参考訳(メタデータ) (2020-08-03T08:48:41Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - Optimal Transport Graph Neural Networks [31.191844909335963]
現在のグラフニューラルネットワーク(GNN)アーキテクチャは、集約グラフ表現に平均または総和ノードを埋め込む。
本稿では,パラメトリックプロトタイプを用いたグラフ埋め込み計算モデルOT-GNNを紹介する。
論文 参考訳(メタデータ) (2020-06-08T14:57:39Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。