論文の概要: Can Classic GNNs Be Strong Baselines for Graph-level Tasks? Simple Architectures Meet Excellence
- arxiv url: http://arxiv.org/abs/2502.09263v2
- Date: Fri, 30 May 2025 14:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 17:26:04.947652
- Title: Can Classic GNNs Be Strong Baselines for Graph-level Tasks? Simple Architectures Meet Excellence
- Title(参考訳): 古典的なGNNはグラフレベルのタスクの強力なベースラインになれるか?
- Authors: Yuankai Luo, Lei Shi, Xiao-Ming Wu,
- Abstract要約: グラフニューラルネットワーク(GNN)の未解決の可能性について,拡張フレームワークであるGNN+を用いて検討する。
GNN+フレームワークによって強化された3つの古典的GNNを14のグラフレベルデータセットで体系的に再評価する。
以上の結果から,これらの古典的GNNは,広く普及している信念とは対照的に,GTのパフォーマンスと一貫して一致しているか,上回っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 7.14327815822376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Message-passing Graph Neural Networks (GNNs) are often criticized for their limited expressiveness, issues like over-smoothing and over-squashing, and challenges in capturing long-range dependencies. Conversely, Graph Transformers (GTs) are regarded as superior due to their employment of global attention mechanisms, which potentially mitigate these challenges. Literature frequently suggests that GTs outperform GNNs in graph-level tasks, especially for graph classification and regression on small molecular graphs. In this study, we explore the untapped potential of GNNs through an enhanced framework, GNN+, which integrates six widely used techniques: edge feature integration, normalization, dropout, residual connections, feed-forward networks, and positional encoding, to effectively tackle graph-level tasks. We conduct a systematic re-evaluation of three classic GNNs (GCN, GIN, and GatedGCN) enhanced by the GNN+ framework across 14 well-known graph-level datasets. Our results reveal that, contrary to prevailing beliefs, these classic GNNs consistently match or surpass the performance of GTs, securing top-three rankings across all datasets and achieving first place in eight. Furthermore, they demonstrate greater efficiency, running several times faster than GTs on many datasets. This highlights the potential of simple GNN architectures, challenging the notion that complex mechanisms in GTs are essential for superior graph-level performance. Our source code is available at https://github.com/LUOyk1999/GNNPlus.
- Abstract(参考訳): メッセージパッシンググラフニューラルネットワーク(GNN)は、その表現力の制限、オーバースムーシングやオーバースキャッシングといった問題、長距離依存関係をキャプチャする上での課題など、しばしば批判される。
逆に、グラフトランスフォーマー(GT)は、これらの課題を緩和するグローバルアテンション機構の活用により優れていると見なされている。
文献では、GTはグラフレベルのタスク、特にグラフ分類や小さな分子グラフの回帰において、GNNよりも優れていることがしばしば示唆されている。
本研究では, エッジ特徴統合, 正規化, ドロップアウト, 残差接続, フィードフォワードネットワーク, 位置エンコーディングという, 広く利用されている6つの手法を統合し, グラフレベルの課題に効果的に取り組むためのフレームワークであるGNN+について検討する。
我々は、GNN+フレームワークによって強化された3つの古典的GNN(GCN、GIN、GatedGCN)を14のグラフレベルデータセットで体系的に再評価する。
我々の結果は、一般的な信念とは対照的に、これらの古典的なGNNはGTのパフォーマンスを一貫して一致または上回っており、すべてのデータセットで上位3位を獲得し、8位に到達していることを示している。
さらに、多くのデータセット上でGTよりも数倍高速に実行される。
これは単純なGNNアーキテクチャの可能性を強調し、グラフレベルの優れたパフォーマンスにはGTの複雑なメカニズムが不可欠であるという考えに挑戦する。
ソースコードはhttps://github.com/LUOyk1999/GNNPlus.comで公開されています。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification [7.14327815822376]
グラフトランスフォーマー(GT)は、従来のグラフニューラルネットワーク(GNN)の代替として人気がある。
本稿では,GTに対する3つの古典的GNNモデル(GCN, GAT, GraphSAGE)の性能を再評価する。
論文 参考訳(メタデータ) (2024-06-13T10:53:33Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Improving Your Graph Neural Networks: A High-Frequency Booster [20.391179274946214]
元のグラフの補グラフにはハイパスフィルタが組み込まれており、高周波数成分の効率的な増強を目的とした補完ラプラシアン正規化(CLAR)を提案する。
実験の結果、CLARはGNNが過剰な平滑化に取り組むのに役立ち、異種グラフの表現性を向上することを示した。
論文 参考訳(メタデータ) (2022-10-15T10:24:28Z) - UniGNN: a Unified Framework for Graph and Hypergraph Neural Networks [8.777765815864367]
エンティティ間の高次相関をモデル化するフレキシブルな表現構造であるhypergraphは、近年様々な研究領域から注目を集めている。
グラフおよびハイパーグラフニューラルネットワークにおけるメッセージパッシングプロセスを解釈するための統一フレームワークであるUniGNNを提案する。
複数の実世界のデータセットに対するUniGNNの有効性を示す実験が行われている。
論文 参考訳(メタデータ) (2021-05-03T15:48:34Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。