論文の概要: Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2010.13993v2
- Date: Mon, 2 Nov 2020 19:42:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 13:00:57.672788
- Title: Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks
- Title(参考訳): ラベル伝播とグラフニューラルネットワークの簡易モデルの組み合わせ
- Authors: Qian Huang, Horace He, Abhay Singh, Ser-Nam Lim, Austin R. Benson
- Abstract要約: 多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
- 参考スコア(独自算出の注目度): 52.121819834353865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are the predominant technique for learning over
graphs. However, there is relatively little understanding of why GNNs are
successful in practice and whether they are necessary for good performance.
Here, we show that for many standard transductive node classification
benchmarks, we can exceed or match the performance of state-of-the-art GNNs by
combining shallow models that ignore the graph structure with two simple
post-processing steps that exploit correlation in the label structure: (i) an
"error correlation" that spreads residual errors in training data to correct
errors in test data and (ii) a "prediction correlation" that smooths the
predictions on the test data. We call this overall procedure Correct and Smooth
(C&S), and the post-processing steps are implemented via simple modifications
to standard label propagation techniques from early graph-based semi-supervised
learning methods. Our approach exceeds or nearly matches the performance of
state-of-the-art GNNs on a wide variety of benchmarks, with just a small
fraction of the parameters and orders of magnitude faster runtime. For
instance, we exceed the best known GNN performance on the OGB-Products dataset
with 137 times fewer parameters and greater than 100 times less training time.
The performance of our methods highlights how directly incorporating label
information into the learning algorithm (as was done in traditional techniques)
yields easy and substantial performance gains. We can also incorporate our
techniques into big GNN models, providing modest gains. Our code for the OGB
results is at https://github.com/Chillee/CorrectAndSmooth.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフを学習するための主要なテクニックである。
しかし、GNNが実際に成功している理由や、優れたパフォーマンスに必要とされるかどうかについては、ほとんど理解されていない。
ここでは、多くの標準的なトランスダクティブノード分類ベンチマークにおいて、グラフ構造を無視する浅いモデルとラベル構造の相関を利用した2つの単純な後処理ステップを組み合わせることで、最先端のGNNの性能を上回り、一致させることができることを示す。
(i)トレーニングデータの残差エラーを拡散してテストデータのエラーを補正する「エラー相関」
(ii)テストデータの予測を円滑にする「予測相関」。
我々は、この全体的な手順をC&S(Correct and Smooth)と呼び、初期のグラフに基づく半教師付き学習手法から標準ラベル伝搬技術に簡単な修正を加えて後処理を行う。
我々の手法は、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
例えば、OGB-Productsデータセットで最もよく知られたGNNのパフォーマンスを超え、パラメータは137倍、トレーニング時間は100倍以上です。
提案手法の性能は,学習アルゴリズムにラベル情報を直接組み込むことによって,より容易かつ実質的な性能向上が得られることを示す。
当社の技術を大きなGNNモデルに組み込むことも可能です。
OGBの結果のコードはhttps://github.com/Chillee/CorrectAndSmooth.com/。
関連論文リスト
- Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Certified Graph Unlearning [39.29148804411811]
グラフ構造化データは実際にユビキタスであり、しばしばグラフニューラルネットワーク(GNN)を使用して処理される
我々は,GNNのemph認定グラフアンラーニングのための最初のフレームワークを紹介する。
ノード機能、エッジ、ノードアンラーニングの3つの異なるタイプのアンラーニング要求を検討する必要がある。
論文 参考訳(メタデータ) (2022-06-18T07:41:10Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - SAS: A Simple, Accurate and Scalable Node Classification Algorithm [7.592727516433364]
グラフニューラルネットワークはグラフノード分類における最先端の精度を達成した。
例えば、中程度のサイズのグラフではメモリ外エラーが頻繁に発生するなど、GNNは大規模なグラフにスケールすることが難しい。
最近の研究は2段階のアプローチでこの問題に対処しようとしている。
論文 参考訳(メタデータ) (2021-04-19T08:17:35Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。