論文の概要: GraphBench: Next-generation graph learning benchmarking
- arxiv url: http://arxiv.org/abs/2512.04475v1
- Date: Thu, 04 Dec 2025 05:30:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.007422
- Title: GraphBench: Next-generation graph learning benchmarking
- Title(参考訳): GraphBench: 次世代グラフ学習ベンチマーク
- Authors: Timo Stoll, Chendi Qian, Ben Finkelshtein, Ali Parviz, Darius Weber, Fabrizio Frasca, Hadar Shavit, Antoine Siraudin, Arman Mielke, Marie Anastacio, Erik Müller, Maya Bechler-Speicher, Michael Bronstein, Mikhail Galkin, Holger Hoos, Mathias Niepert, Bryan Perozzi, Jan Tönshoff, Christopher Morris,
- Abstract要約: GraphBenchは、さまざまなドメインと予測タスクにまたがる包括的なベンチマークスイートです。
GraphBenchは、一貫性のあるデータセット分割とパフォーマンスメトリクスを備えた、標準化された評価プロトコルを提供する。
メッセージパッシングニューラルネットワークとグラフトランスフォーマーモデルを用いてGraphBenchをベンチマークする。
- 参考スコア(独自算出の注目度): 33.5751261377013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning on graphs has recently achieved impressive progress in various domains, including molecular property prediction and chip design. However, benchmarking practices remain fragmented, often relying on narrow, task-specific datasets and inconsistent evaluation protocols, which hampers reproducibility and broader progress. To address this, we introduce GraphBench, a comprehensive benchmarking suite that spans diverse domains and prediction tasks, including node-level, edge-level, graph-level, and generative settings. GraphBench provides standardized evaluation protocols -- with consistent dataset splits and performance metrics that account for out-of-distribution generalization -- as well as a unified hyperparameter tuning framework. Additionally, we benchmark GraphBench using message-passing neural networks and graph transformer models, providing principled baselines and establishing a reference performance. See www.graphbench.io for further details.
- Abstract(参考訳): グラフ上の機械学習は、最近、分子特性予測やチップ設計など、様々な領域で顕著な進歩を遂げている。
しかし、ベンチマークのプラクティスは断片化され続けており、しばしば狭いタスク固有のデータセットと一貫性のない評価プロトコルに依存しており、再現性と幅広い進歩を妨げている。
これに対処するため,ノードレベル,エッジレベル,グラフレベル,生成設定など,さまざまなドメインや予測タスクにまたがる総合的なベンチマークスイートであるGraphBenchを紹介した。
GraphBenchは、標準化された評価プロトコル -- 一貫性のあるデータセット分割と、配布外一般化を考慮したパフォーマンスメトリクス -- と、統一されたハイパーパラメータチューニングフレームワークを提供する。
さらに、メッセージパッシングニューラルネットワークとグラフトランスフォーマーモデルを用いてGraphBenchをベンチマークし、基本的なベースラインを提供し、参照性能を確立する。
詳細はwww.graphbench.ioを参照。
関連論文リスト
- Graph Alignment for Benchmarking Graph Neural Networks and Learning Positional Encodings [4.343110120255532]
本稿では,グラフアライメント問題に基づくグラフニューラルネットワーク(GNN)の新しいベンチマーク手法を提案する。
我々は,この問題を自己教師付き学習タスクとして捉え,グラフアライメントデータセットを生成するいくつかの方法を提案する。
実験により、異方性グラフニューラルネットワークは標準的な畳み込みアーキテクチャより優れていることが示された。
論文 参考訳(メタデータ) (2025-05-19T13:22:17Z) - Rethinking Link Prediction for Directed Graphs [73.36395969796804]
有向グラフのリンク予測は、様々な現実世界のアプリケーションにとって重要な課題である。
埋め込み手法とグラフニューラルネットワーク(GNN)の最近の進歩は、有望な改善を示している。
本稿では,既存手法の表現性を評価する統一的なフレームワークを提案し,二重埋め込みとデコーダ設計がリンクの有向予測性能に与える影響を強調した。
論文 参考訳(メタデータ) (2025-02-08T23:51:05Z) - GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - GC4NC: A Benchmark Framework for Graph Condensation on Node Classification with New Insights [23.709153051985027]
グラフ凝縮(GC)は、元のグラフの本質的な情報を保持する、はるかに小さなグラフを学習するために設計された新興技術である。
ノード分類における多様なGC手法を評価するための包括的フレームワークである textbfGC4NC を紹介する。
私たちの体系的な評価は、凝縮グラフがどのように振る舞うか、そしてその成功を導く重要な設計選択について、新しい洞察を与えます。
論文 参考訳(メタデータ) (2024-06-24T15:17:49Z) - Temporal Graph Benchmark for Machine Learning on Temporal Graphs [54.52243310226456]
テンポラルグラフベンチマーク(TGB)は、困難で多様なベンチマークデータセットのコレクションである。
各データセットをベンチマークし、共通のモデルのパフォーマンスがデータセット間で大きく異なることを発見した。
TGBは、再現可能でアクセス可能な時間グラフ研究のための自動機械学習パイプラインを提供する。
論文 参考訳(メタデータ) (2023-07-03T13:58:20Z) - Micro and Macro Level Graph Modeling for Graph Variational Auto-Encoders [16.302222204710276]
本稿では,ノードレベルの特性とグラフレベルの統計を協調的にモデル化する,新しいマルチレベルフレームワークを提案する。
本稿では,ノードレベルとグラフレベルの損失を組み合わせたグラフ生成のための新しいマイクロマクロトレーニング手法を提案する。
実験の結果,GraphVAEモデルにマイクロマクロモデリングを追加することで,5つのベンチマークデータセットにおいて最大2桁のグラフ品質スコアが向上することがわかった。
論文 参考訳(メタデータ) (2022-10-30T13:45:21Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - GraphiT: Encoding Graph Structure in Transformers [37.33808493548781]
古典的グラフニューラルネットワーク(GNN)を用いて学習した表現を,ノードの特徴と構造的および位置的情報の集合として見ることにより,より優れた表現を実現できることを示す。
我々のモデルであるGraphiTは,グラフ上の正定値カーネルに基づく自己注意スコアにおける相対的な位置符号化戦略と,短距離パスなどの局所的なサブ構造を列挙して符号化することで,そのような情報を符号化する。
論文 参考訳(メタデータ) (2021-06-10T11:36:22Z) - Accurate Learning of Graph Representations with Graph Multiset Pooling [45.72542969364438]
本稿では,その構造的依存関係に応じてノード間の相互作用をキャプチャするグラフマルチセットトランス (GMT) を提案する。
実験の結果,GMTはグラフ分類ベンチマークにおいて,最先端のグラフプーリング法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-02-23T07:45:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。