論文の概要: OpenGT: A Comprehensive Benchmark For Graph Transformers
- arxiv url: http://arxiv.org/abs/2506.04765v1
- Date: Thu, 05 Jun 2025 08:48:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.613071
- Title: OpenGT: A Comprehensive Benchmark For Graph Transformers
- Title(参考訳): OpenGT:グラフトランスフォーマーの総合ベンチマーク
- Authors: Jiachen Tang, Zhonghao Wang, Sirui Chen, Sheng Zhou, Jiawei Chen, Jiajun Bu,
- Abstract要約: グラフトランスフォーマー(GT)は、最近、様々な領域で顕著なパフォーマンスを示している。
本稿では,グラフトランスフォーマーの総合ベンチマークであるOpenGTを紹介する。
- 参考スコア(独自算出の注目度): 13.214504021335749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Transformers (GTs) have recently demonstrated remarkable performance across diverse domains. By leveraging attention mechanisms, GTs are capable of modeling long-range dependencies and complex structural relationships beyond local neighborhoods. However, their applicable scenarios are still underexplored, this highlights the need to identify when and why they excel. Furthermore, unlike GNNs, which predominantly rely on message-passing mechanisms, GTs exhibit a diverse design space in areas such as positional encoding, attention mechanisms, and graph-specific adaptations. Yet, it remains unclear which of these design choices are truly effective and under what conditions. As a result, the community currently lacks a comprehensive benchmark and library to promote a deeper understanding and further development of GTs. To address this gap, this paper introduces OpenGT, a comprehensive benchmark for Graph Transformers. OpenGT enables fair comparisons and multidimensional analysis by establishing standardized experimental settings and incorporating a broad selection of state-of-the-art GNNs and GTs. Our benchmark evaluates GTs from multiple perspectives, encompassing diverse tasks and datasets with varying properties. Through extensive experiments, our benchmark has uncovered several critical insights, including the difficulty of transferring models across task levels, the limitations of local attention, the efficiency trade-offs in several models, the application scenarios of specific positional encodings, and the preprocessing overhead of some positional encodings. We aspire for this work to establish a foundation for future graph transformer research emphasizing fairness, reproducibility, and generalizability. We have developed an easy-to-use library OpenGT for training and evaluating existing GTs. The benchmark code is available at https://github.com/eaglelab-zju/OpenGT.
- Abstract(参考訳): グラフトランスフォーマー(GT)は、最近、様々な領域で顕著なパフォーマンスを示している。
注意機構を活用することで、GTは、局所的な近傍を越えて、長距離依存や複雑な構造的関係をモデル化することができる。
しかし、適用可能なシナリオはまだ探索されていないため、いつ、なぜ優れているかを特定する必要性が強調されている。
さらに、メッセージパッシング機構に大きく依存するGNNとは異なり、GTは位置符号化、アテンション機構、グラフ固有の適応といった分野において多様な設計空間を示す。
しかし、これらの設計選択のどれが真に効果的で、どのような条件下にあるかは、まだ不明である。
その結果、コミュニティは現在、GTのより深い理解とさらなる開発を促進するための包括的なベンチマークとライブラリを欠いている。
このギャップに対処するために,グラフトランスフォーマーの総合ベンチマークであるOpenGTを紹介する。
OpenGTは、標準化された実験環境を確立し、最先端のGNNとGTを幅広く選択することで、公正な比較と多次元解析を可能にする。
本ベンチマークでは,複数の視点からGTを評価し,様々な特性を持つタスクやデータセットを包含する。
大規模な実験を通じて、我々のベンチマークでは、タスクレベル間でモデルを転送することの難しさ、局所的な注意の制限、複数のモデルの効率のトレードオフ、特定の位置エンコーディングの適用シナリオ、いくつかの位置エンコーディングの事前処理オーバーヘッドなど、いくつかの重要な洞察が得られた。
本研究は、公正性、再現性、一般化性を重視した将来のグラフトランスフォーマー研究の基礎を確立することを目的としている。
我々は,既存のGTをトレーニングし,評価するための,使い易いライブラリOpenGTを開発した。
ベンチマークコードはhttps://github.com/eaglelab-zju/OpenGT.comで公開されている。
関連論文リスト
- GDI-Bench: A Benchmark for General Document Intelligence with Vision and Reasoning Decoupling [36.8157293625143]
汎用ドキュメントインテリジェンスベンチマークは、9つの主要なシナリオと19のドキュメント固有のタスクにわたる2.3kイメージを備えている。
我々はGDI-Bench上で様々なオープンソースおよびクローズドソースモデルを評価し,視覚領域と推論領域の分離解析を行った。
本モデルは,従来のベンチマークとGDI-Bench上での最先端性能を実現する。
論文 参考訳(メタデータ) (2025-04-30T15:46:46Z) - G-OSR: A Comprehensive Benchmark for Graph Open-Set Recognition [54.45837774534411]
ノードレベルとグラフレベルの両方でグラフオープンセット認識(GOSR)手法を評価するベンチマークである textbfG-OSR を導入する。
結果は、現在のGOSR手法の一般化可能性と限界に関する重要な洞察を与える。
論文 参考訳(メタデータ) (2025-03-01T13:02:47Z) - Graph Neural Networks Are More Than Filters: Revisiting and Benchmarking from A Spectral Perspective [49.613774305350084]
グラフニューラルネットワーク(GNN)は、様々なグラフベースの学習タスクにおいて顕著な成功を収めている。
近年の研究では、非線形層などの他のコンポーネントが、GNNがスペクトル領域の入力グラフデータをどのように処理するかに大きく影響する可能性が示唆されている。
本稿では、入力グラフデータの異なる周波数成分に符号化された情報を捕捉し、活用する際のGNNの能力を評価するための総合的なベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-10T04:53:53Z) - GEOBench-VLM: Benchmarking Vision-Language Models for Geospatial Tasks [84.86699025256705]
本稿では,地理空間的タスクの視覚言語モデル(VLM)を評価するためのベンチマークであるGEOBench-VLMを提案する。
私たちのベンチマークでは、手動で検証された命令が1万以上あり、さまざまな視覚条件、オブジェクトタイプ、スケールにまたがっています。
地理空間固有の課題における性能を評価するために,いくつかの最先端のVLMを評価した。
論文 参考訳(メタデータ) (2024-11-28T18:59:56Z) - Benchmarking Positional Encodings for GNNs and Graph Transformers [20.706469085872516]
本稿では、メッセージパッシングGNNとGTの両方を含む統一フレームワークにおいて、位置 s (PE) のベンチマークを示す。
また,MPNNとGT間の理論的接続を確立するとともに,グローバル接続の影響を調べるためのGRITアテンション機構を導入する。
論文 参考訳(メタデータ) (2024-11-19T18:57:01Z) - AnchorGT: Efficient and Flexible Attention Architecture for Scalable Graph Transformers [35.04198789195943]
グラフ変換器(GT)のための新しいアテンションアーキテクチャであるAnchorGTを提案する。
アンカーベースGNNにインスパイアされ、構造的に重要な$k$支配ノードセットをアンカーとして採用し、個々のノードとアンカーの関係に着目したアテンションメカニズムを設計する。
直感的な設計により、AnchorGTは様々なGTモデルのアテンションモジュールを異なるネットワークアーキテクチャで簡単に置き換えることができる。
論文 参考訳(メタデータ) (2024-05-06T13:53:09Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Exploring Sparsity in Graph Transformers [67.48149404841925]
グラフ変換器(GT)は、様々なグラフ関連タスクにおいて印象的な結果を得た。
しかし、GTsの膨大な計算コストは、特に資源制約のある環境でのデプロイメントと応用を妨げる。
我々は、GTの計算複雑性を低減するのに役立つ、包括的な textbfGraph textbfTransformer textbfSParsification (GTSP) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-09T06:21:44Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。