論文の概要: Fixed Aggregation Features Can Rival GNNs
- arxiv url: http://arxiv.org/abs/2601.19449v1
- Date: Tue, 27 Jan 2026 10:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.286334
- Title: Fixed Aggregation Features Can Rival GNNs
- Title(参考訳): 固定アグリゲーション機能はGNNを無効にできる
- Authors: Celia Rubio-Madrigal, Rebekka Burkholz,
- Abstract要約: グラフニューラルネットワーク(GNN)は、訓練可能な近傍アグリゲーションによるノード表現学習において優れていると広く信じられている。
グラフ学習タスクを表計算問題に変換するトレーニング不要なアプローチであるFixed Aggregation Features (FAFs)を紹介する。
14のベンチマーク、よく調整された多層パーセプトロンはAFFのライバルや最先端のGNNやグラフトランスフォーマーで訓練された。
- 参考スコア(独自算出の注目度): 28.92644344640392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are widely believed to excel at node representation learning through trainable neighborhood aggregations. We challenge this view by introducing Fixed Aggregation Features (FAFs), a training-free approach that transforms graph learning tasks into tabular problems. This simple shift enables the use of well-established tabular methods, offering strong interpretability and the flexibility to deploy diverse classifiers. Across 14 benchmarks, well-tuned multilayer perceptrons trained on FAFs rival or outperform state-of-the-art GNNs and graph transformers on 12 tasks -- often using only mean aggregation. The only exceptions are the Roman Empire and Minesweeper datasets, which typically require unusually deep GNNs. To explain the theoretical possibility of non-trainable aggregations, we connect our findings to Kolmogorov-Arnold representations and discuss when mean aggregation can be sufficient. In conclusion, our results call for (i) richer benchmarks benefiting from learning diverse neighborhood aggregations, (ii) strong tabular baselines as standard, and (iii) employing and advancing tabular models for graph data to gain new insights into related tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、訓練可能な近傍アグリゲーションによるノード表現学習において優れていると広く信じられている。
グラフ学習タスクを表型問題に変換するトレーニング不要なアプローチであるFAF(Fixed Aggregation Features)を導入することで、この考え方に挑戦する。
この単純なシフトは、高度に確立された表型メソッドの使用を可能にし、強力な解釈可能性と多様な分類器をデプロイする柔軟性を提供する。
14のベンチマークで、FAFのライバルや最先端のGNN、12タスクのグラフトランスフォーマーでトレーニングされた、十分にチューニングされたマルチレイヤパーセプトロンは、平均アグリゲーションのみを使用することが多い。
唯一の例外は、ローマ帝国とミナスウィーパーのデータセットであり、通常は異常に深いGNNを必要とする。
学習不能なアグリゲーションの理論的可能性を説明するために、この発見をコルモゴロフ・アルノルド表現に結びつけ、平均アグリゲーションが十分であるかどうかを議論する。
結論として、我々の結果は、
(i)近隣の多様な集合を学習することの恩恵を受けるリッチなベンチマーク。
(二)標準として強い表の基線、及び
三 グラフデータに表形式モデルを適用して、関連するタスクに関する新たな洞察を得る。
関連論文リスト
- Can TabPFN Compete with GNNs for Node Classification via Graph Tabularization? [31.75541440214278]
本稿では,ノード属性と構造特性を抽出してグラフデータを表特徴に変換するTabPFN-GNを提案する。
12のベンチマークデータセットを用いた実験により,TabPFN-GNは同好グラフ上のGNNと競合する性能を示し,不好グラフ上でのGNNよりも一貫して優れることがわかった。
論文 参考訳(メタデータ) (2025-12-09T16:51:30Z) - Rel-HNN: Split Parallel Hypergraph Neural Network for Learning on Relational Databases [3.6423651166048874]
データベースのフラット化は、ディープラーニングモデルに課題をもたらす。
我々はrel-HNNと呼ばれる新しいハイパーグラフベースのフレームワークを提案する。
rel-HNNは,分類タスクと回帰タスクの両方において,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-07-16T18:20:45Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Revisiting Heterophily For Graph Neural Networks [42.41238892727136]
グラフニューラルネットワーク(GNN)は、関係帰納バイアスに基づくグラフ構造を用いて基本ニューラルネットワーク(NN)を拡張する(ホモフィリー仮定)
最近の研究は、NNと比較してパフォーマンスが不十分な、非自明なデータセットのセットを特定している。
論文 参考訳(メタデータ) (2022-10-14T08:00:26Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z) - Principal Neighbourhood Aggregation for Graph Nets [4.339839287869653]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上の様々な予測タスクに有効なモデルであることが示されている。
表現力に関する最近の研究は同型タスクと可算特徴空間に焦点を当てている。
我々はこの理論フレームワークを拡張し、現実世界の入力領域で定期的に発生する連続的な特徴を含める。
論文 参考訳(メタデータ) (2020-04-12T23:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。