論文の概要: Unlocking the Potential of Classic GNNs for Graph-level Tasks: Simple Architectures Meet Excellence
- arxiv url: http://arxiv.org/abs/2502.09263v1
- Date: Thu, 13 Feb 2025 12:24:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:47:38.316133
- Title: Unlocking the Potential of Classic GNNs for Graph-level Tasks: Simple Architectures Meet Excellence
- Title(参考訳): グラフレベルのタスクのための古典的なGNNの可能性を解き放つ:シンプルなアーキテクチャは優れたものになる
- Authors: Yuankai Luo, Lei Shi, Xiao-Ming Wu,
- Abstract要約: グラフニューラルネットワーク(GNN)の未解決の可能性について,拡張フレームワークであるGNN+を用いて検討する。
我々は、GNN+フレームワークによって強化されたGCN、GIN、GatedGCNの3つの古典的GNNを、14のグラフレベルデータセットで体系的に評価する。
その結果、従来のGNNはグラフレベルのタスクに優れており、すべてのデータセットで上位3位を獲得し、8位にランクインし、GTよりも高い効率を示した。
- 参考スコア(独自算出の注目度): 7.14327815822376
- License:
- Abstract: Message-passing Graph Neural Networks (GNNs) are often criticized for their limited expressiveness, issues like over-smoothing and over-squashing, and challenges in capturing long-range dependencies, while Graph Transformers (GTs) are considered superior due to their global attention mechanisms. Literature frequently suggests that GTs outperform GNNs, particularly in graph-level tasks such as graph classification and regression. In this study, we explore the untapped potential of GNNs through an enhanced framework, GNN+, which integrates six widely used techniques: edge feature integration, normalization, dropout, residual connections, feed-forward networks, and positional encoding, to effectively tackle graph-level tasks. We conduct a systematic evaluation of three classic GNNs, namely GCN, GIN, and GatedGCN, enhanced by the GNN+ framework across 14 well-known graph-level datasets. Our results show that, contrary to the prevailing belief, classic GNNs excel in graph-level tasks, securing top three rankings across all datasets and achieving first place in eight, while also demonstrating greater efficiency than GTs. This highlights the potential of simple GNN architectures, challenging the belief that complex mechanisms in GTs are essential for superior graph-level performance.
- Abstract(参考訳): メッセージパッシンググラフニューラルネットワーク(GNN)は、その表現力の制限、過度なスムース化やオーバースカッシングといった問題、長距離依存関係をキャプチャする上での課題などで批判されることが多いが、グラフトランスフォーマー(GT)は、そのグローバルな注意機構のために優れていると考えられている。
特にグラフ分類や回帰といったグラフレベルのタスクでは、GTがGNNより優れていることがしばしば示唆される。
本研究では, エッジ特徴統合, 正規化, ドロップアウト, 残差接続, フィードフォワードネットワーク, 位置エンコーディングという, 広く利用されている6つの手法を統合し, グラフレベルの課題に効果的に取り組むためのフレームワークであるGNN+について検討する。
我々は、GNN+フレームワークによって強化されたGCN、GIN、GatedGCNの3つの古典的GNNを、14のグラフレベルデータセットで体系的に評価する。
その結果、従来のGNNはグラフレベルのタスクに優れており、すべてのデータセットで上位3位を獲得し、8位にランクインし、GTよりも高い効率を示した。
これは単純なGNNアーキテクチャの可能性を強調し、グラフレベルの優れたパフォーマンスにはGTの複雑なメカニズムが不可欠であるという考えに挑戦する。
関連論文リスト
- Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification [7.14327815822376]
グラフトランスフォーマー(GT)は、従来のグラフニューラルネットワーク(GNN)の代替として人気がある。
本稿では,GTに対する3つの古典的GNNモデル(GCN, GAT, GraphSAGE)の性能を再評価する。
論文 参考訳(メタデータ) (2024-06-13T10:53:33Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Improving Your Graph Neural Networks: A High-Frequency Booster [20.391179274946214]
元のグラフの補グラフにはハイパスフィルタが組み込まれており、高周波数成分の効率的な増強を目的とした補完ラプラシアン正規化(CLAR)を提案する。
実験の結果、CLARはGNNが過剰な平滑化に取り組むのに役立ち、異種グラフの表現性を向上することを示した。
論文 参考訳(メタデータ) (2022-10-15T10:24:28Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - UniGNN: a Unified Framework for Graph and Hypergraph Neural Networks [8.777765815864367]
エンティティ間の高次相関をモデル化するフレキシブルな表現構造であるhypergraphは、近年様々な研究領域から注目を集めている。
グラフおよびハイパーグラフニューラルネットワークにおけるメッセージパッシングプロセスを解釈するための統一フレームワークであるUniGNNを提案する。
複数の実世界のデータセットに対するUniGNNの有効性を示す実験が行われている。
論文 参考訳(メタデータ) (2021-05-03T15:48:34Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。