論文の概要: Size Transferability of Graph Transformers with Convolutional Positional Encodings
- arxiv url: http://arxiv.org/abs/2602.15239v1
- Date: Mon, 16 Feb 2026 22:38:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.929108
- Title: Size Transferability of Graph Transformers with Convolutional Positional Encodings
- Title(参考訳): 畳み込み位置符号化を用いたグラフ変換器の寸法転送性
- Authors: Javier Porras-Valenzuela, Zhiyang Wang, Alejandro Ribeiro,
- Abstract要約: グラフトランスフォーマー(GT)は、グラフ構造化データのためのアテンションベースのアーキテクチャである。
グラフ列に対する多様体極限モデルのレンズを通してGTを研究する。
我々はGTが位置エンコーディングから転送可能性保証を継承していることを示す。
- 参考スコア(独自算出の注目度): 82.27361992510494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformers have achieved remarkable success across domains, motivating the rise of Graph Transformers (GTs) as attention-based architectures for graph-structured data. A key design choice in GTs is the use of Graph Neural Network (GNN)-based positional encodings to incorporate structural information. In this work, we study GTs through the lens of manifold limit models for graph sequences and establish a theoretical connection between GTs with GNN positional encodings and Manifold Neural Networks (MNNs). Building on transferability results for GNNs under manifold convergence, we show that GTs inherit transferability guarantees from their positional encodings. In particular, GTs trained on small graphs provably generalize to larger graphs under mild assumptions. We complement our theory with extensive experiments on standard graph benchmarks, demonstrating that GTs exhibit scalable behavior on par with GNNs. To further show the efficiency in a real-world scenario, we implement GTs for shortest path distance estimation over terrains to better illustrate the efficiency of the transferable GTs. Our results provide new insights into the understanding of GTs and suggest practical directions for efficient training of GTs in large-scale settings.
- Abstract(参考訳): トランスフォーマーは、グラフ構造化データのアテンションベースのアーキテクチャとして、グラフトランスフォーマー(GT)の台頭を動機として、ドメイン全体で大きな成功を収めている。
GTにおける重要な設計選択は、構造情報を組み込むためにグラフニューラルネットワーク(GNN)ベースの位置エンコーディングを使用することである。
本研究では,グラフ列の多様体極限モデルのレンズを通してGTを解析し,GNN位置エンコーディングとマニフォールドニューラルネットワーク(MNN)との理論的接続を確立する。
多様体収束下でのGNNの転送可能性結果に基づいて、GTがそれらの位置エンコーディングから転送可能性保証を継承することを示す。
特に、小さなグラフで訓練されたGTは、穏やかな仮定の下でより大きなグラフに証明的に一般化する。
我々は、GTがGNNと同等にスケーラブルな振る舞いを示すことを示すため、標準グラフベンチマークに関する広範な実験で、我々の理論を補完する。
実世界のシナリオにおける効率をさらに高めるため、移動可能なGTの効率をよりよく説明するために、地形上での最短経路距離推定のためにGTを実装した。
以上の結果から,GTの理解に関する新たな知見が得られ,大規模環境下でのGTの効率的なトレーニングの実践的方向性が示唆された。
関連論文リスト
- Can Classic GNNs Be Strong Baselines for Graph-level Tasks? Simple Architectures Meet Excellence [20.305592785919647]
グラフニューラルネットワーク(GNN)の未解決の可能性について,拡張フレームワークであるGNN+を用いて検討する。
GNN+フレームワークによって強化された3つの古典的GNNを14のグラフレベルデータセットで体系的に再評価する。
以上の結果から,これらの古典的GNNは,広く普及している信念とは対照的に,GTのパフォーマンスと一貫して一致しているか,上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-02-13T12:24:23Z) - Rethinking Graph Transformer Architecture Design for Node Classification [4.497245600377944]
グラフトランスフォーマー(GT)は、高次メッセージパッシングを容易にするためにマルチヘッドアテンションを利用するグラフニューラルネットワーク(GNN)の一種である。
本研究では,ノード分類タスクにおけるGTアーキテクチャの適応性を検討するための観測実験を行う。
提案したGTアーキテクチャは,グローバルノイズや計算効率の制限の影響を受けずに,ノード分類タスクに効果的に適応することができる。
論文 参考訳(メタデータ) (2024-10-15T02:08:16Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification [7.14327815822376]
グラフトランスフォーマー(GT)は、従来のグラフニューラルネットワーク(GNN)の代替として人気がある。
本稿では,GTに対する3つの古典的GNNモデル(GCN, GAT, GraphSAGE)の性能を再評価する。
論文 参考訳(メタデータ) (2024-06-13T10:53:33Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Exploring Sparsity in Graph Transformers [67.48149404841925]
グラフ変換器(GT)は、様々なグラフ関連タスクにおいて印象的な結果を得た。
しかし、GTsの膨大な計算コストは、特に資源制約のある環境でのデプロイメントと応用を妨げる。
我々は、GTの計算複雑性を低減するのに役立つ、包括的な textbfGraph textbfTransformer textbfSParsification (GTSP) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-09T06:21:44Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。