論文の概要: SAS: A Simple, Accurate and Scalable Node Classification Algorithm
- arxiv url: http://arxiv.org/abs/2104.09120v1
- Date: Mon, 19 Apr 2021 08:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:42:11.435887
- Title: SAS: A Simple, Accurate and Scalable Node Classification Algorithm
- Title(参考訳): SAS: シンプルで正確でスケーラブルなノード分類アルゴリズム
- Authors: Ziyuan Wang, Feiming Yang, Rui Fan
- Abstract要約: グラフニューラルネットワークはグラフノード分類における最先端の精度を達成した。
例えば、中程度のサイズのグラフではメモリ外エラーが頻繁に発生するなど、GNNは大規模なグラフにスケールすることが難しい。
最近の研究は2段階のアプローチでこの問題に対処しようとしている。
- 参考スコア(独自算出の注目度): 7.592727516433364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks have achieved state-of-the-art accuracy for graph node
classification. However, GNNs are difficult to scale to large graphs, for
example frequently encountering out-of-memory errors on even moderate size
graphs. Recent works have sought to address this problem using a two-stage
approach, which first aggregates data along graph edges, then trains a
classifier without using additional graph information. These methods can run on
much larger graphs and are orders of magnitude faster than GNNs, but achieve
lower classification accuracy. We propose a novel two-stage algorithm based on
a simple but effective observation: we should first train a classifier then
aggregate, rather than the other way around. We show our algorithm is faster
and can handle larger graphs than existing two-stage algorithms, while
achieving comparable or higher accuracy than popular GNNs. We also present a
theoretical basis to explain our algorithm's improved accuracy, by giving a
synthetic nonlinear dataset in which performing aggregation before
classification actually decreases accuracy compared to doing classification
alone, while our classify then aggregate approach substantially improves
accuracy compared to classification alone.
- Abstract(参考訳): グラフニューラルネットワークはグラフノード分類における最先端の精度を達成した。
しかし、gnnは大きなグラフにスケールするのは難しく、例えば中程度のサイズのグラフでもメモリ外のエラーに頻繁に遭遇する。
最近の研究は、まずグラフエッジに沿ってデータを集約し、次にグラフ情報を使用しずに分類器を訓練する2段階アプローチを用いてこの問題に対処しようとしている。
これらの手法はより大きなグラフ上で動作し、GNNよりも桁違いに高速であるが、分類精度は低い。
そこで我々は,まず分類器を学習し,次に集約する2段階のアルゴリズムを提案する。
我々のアルゴリズムは既存の2段階アルゴリズムよりも高速で大きなグラフを処理でき、一般的なGNNと同等あるいは高い精度で処理可能であることを示す。
また,アルゴリズムの精度向上を理論的根拠として,分類よりも分類前のアグリゲーションが実際に精度を低下させるような合成非線形データセットを与えるとともに,アグリゲーションアプローチは分類単独と比較して精度を大幅に向上させる。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Stochastic Subgraph Neighborhood Pooling for Subgraph Classification [2.1270496914042996]
Subgraph Neighborhood Pooling (SSNP) は、ラベル付けトリックのような計算コストの高い操作をすることなく、サブグラフとその周辺情報を共同で集約する。
実験により、我々のモデルは、トレーニングにおいて最大3倍高速でありながら、最先端の手法(マージンが最大2%)より優れています。
論文 参考訳(メタデータ) (2023-04-17T18:49:18Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - GNNRank: Learning Global Rankings from Pairwise Comparisons via Directed
Graph Neural Networks [68.61934077627085]
本稿では,グラフ埋め込みを学習可能なGNNと互換性のあるモデリングフレームワークであるGNNRankを紹介する。
既存の手法と比較して,我々の手法が競争力があり,しばしば優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-02-01T04:19:50Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - CoSimGNN: Towards Large-scale Graph Similarity Computation [5.17905821006887]
グラフニューラルネットワーク(GNN)はこのタスクにデータ駆動型ソリューションを提供する。
既存のGNNベースの手法は、それぞれ2つのグラフを埋め込んだり、グラフ全体のクロスグラフインタラクションをデプロイしたりするが、まだ競合する結果が得られない。
このフレームワークは,まず適応的なプーリング操作で大きなグラフを埋め込んで粗くし,最後に類似点を求めるために粗いグラフにきめ細かな相互作用を展開させる。
論文 参考訳(メタデータ) (2020-05-14T16:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。