論文の概要: Evaluating Progress in Graph Foundation Models: A Comprehensive Benchmark and New Insights
- arxiv url: http://arxiv.org/abs/2603.10033v1
- Date: Sat, 28 Feb 2026 04:01:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.5892
- Title: Evaluating Progress in Graph Foundation Models: A Comprehensive Benchmark and New Insights
- Title(参考訳): グラフ基礎モデルの進歩を評価する - 包括的なベンチマークと新たな洞察
- Authors: Xingtong Yu, Shenghua Ye, Ruijuan Liang, Chang Zhou, Hong Cheng, Xinming Zhang, Yuan Fang,
- Abstract要約: グラフ基礎モデル(GFM)は、様々なグラフを事前学習することで、伝達可能な知識を獲得することを目的としている。
既存の GFM ベンチマークのほとんどはトピックドメインにのみ依存しており、両方の次元にわたる知識の伝達の仕方も不明である。
GFMパイプライン全体にわたるトピックとフォーマットのギャップを共同で評価する新しいベンチマークを提案する。
- 参考スコア(独自算出の注目度): 39.21251858545552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph foundation models (GFM) aim to acquire transferable knowledge by pre-training on diverse graphs, which can be adapted to various downstream tasks. However, domain shift in graphs is inherently two-dimensional: graphs differ not only in what they describe (topic domains) but also in how they are represented (format domains). Most existing GFM benchmarks vary only topic domains, thereby obscuring how knowledge transfers across both dimensions. We present a new benchmark that jointly evaluates topic and format gaps across the full GFM pipeline, including multi-domain self-supervised pre-training and few-shot downstream adaptation, and provides a timely evaluation of recent GFMs in the rapidly evolving landscape. Our protocol enables controlled assessment in four settings: (i) pre-training on diverse topics and formats, while adapting to unseen downstream datasets; (ii) same pre-training as in (i), while adapting to seen datasets; (iii) pre-training on a single topic domain, while adapting to other topics; (iv) pre-training on a base format, while adapting to other formats. This two-axis evaluation disentangles semantic generalization from robustness to representational shifts. We conduct extensive evaluations of eight state-of-the-art GFMs on 33 datasets spanning seven topic domains and six format domains, surfacing new empirical observations and practical insights for future research. Codes/data are available at https://github.com/smufang/GFMBenchmark.
- Abstract(参考訳): グラフ基礎モデル(GFM)は、様々な下流タスクに適応可能な多様なグラフを事前学習することで、伝達可能な知識を獲得することを目的としている。
しかし、グラフの領域シフトは本質的に2次元である:グラフはそれらを記述するもの(トピック領域)だけでなく、それらがどのように表現されるか(形式領域)にも異なる。
既存の GFM ベンチマークの多くはトピック領域のみに変化しており、それによって両方の次元にわたる知識の伝達の仕方を見落としている。
本稿では,多分野の自己指導型事前学習と数発の下流適応を含む全GFMパイプラインにおけるトピックとフォーマットのギャップを協調的に評価し,急速に発展する環境における最近のGFMのタイムリーな評価を行う。
我々のプロトコルは4つの設定で制御されたアセスメントを可能にする。
(i)未知の下流データセットに適応しつつ、多様なトピックやフォーマットを事前学習すること。
(二)同等の予習
(i)見かけのデータセットに適応しつつ、
三 一つの話題領域において、他の話題に適応しつつ事前訓練すること。
(4)他のフォーマットに適応しながら、ベースフォーマットでの事前トレーニング。
この2軸評価は、ロバストネスから表現シフトへのセマンティック一般化を阻害する。
我々は、7つのトピックドメインと6つのフォーマットドメインにまたがる33のデータセットに対して8つの最先端GFMを広範囲に評価し、新しい経験的観察と将来の研究のための実践的な洞察を提示する。
コード/データはhttps://github.com/smufang/GFMBenchmarkで入手できる。
関連論文リスト
- Towards Effective Federated Graph Foundation Model via Mitigating Knowledge Entanglement [9.87623531653534]
グラフ基礎モデル(GFM)は強力なドメイン一般化を提供するが、通常は単一のマシンで訓練される。
我々は,新しい分散GFMトレーニングパラダイムであるFedGFMを提案する。
主な課題は知識の絡み合いであり、多分野の知識は区別できない表現に融合する。
2つのコアモジュールを持つ拡張フレームワークであるFedGFM+を,知識の絡み合いを軽減するために提案する。
論文 参考訳(メタデータ) (2025-05-19T04:06:32Z) - Revisiting, Benchmarking and Understanding Unsupervised Graph Domain Adaptation [31.106636947179005]
教師なしグラフドメイン適応(Unsupervised Graph Domain Adaptation)は、ラベル豊富なソースグラフからラベルなしターゲットグラフへの知識の転送を含む。
GDABenchと呼ばれる教師なしグラフ領域適応のための最初の包括的なベンチマークを示す。
我々は、現在のUGDAモデルの性能がデータセットや適応シナリオによって大きく異なることを観察する。
論文 参考訳(メタデータ) (2024-07-09T06:44:09Z) - Position: Graph Foundation Models are Already Here [53.737868336014735]
グラフ基礎モデル(GFM)は、グラフ領域において重要な研究トピックとして浮上している。
グラフ語彙の提唱によるGFM開発のための新しい視点」を提案する。
この観点は、将来のGFM設計を、ニューラルネットワークのスケーリング法則に従って前進させる可能性がある。
論文 参考訳(メタデータ) (2024-02-03T17:24:36Z) - OpenGDA: Graph Domain Adaptation Benchmark for Cross-network Learning [42.48479966907126]
OpenGDAはグラフ領域適応モデルを評価するためのベンチマークである。
さまざまなタスクに対して、豊富な事前処理と統合されたデータセットを提供する。
最先端のモデルと標準化されたパイプラインとエンドツーエンドのパイプラインを統合する。
論文 参考訳(メタデータ) (2023-07-21T04:11:43Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z) - Supervised Domain Adaptation: A Graph Embedding Perspective and a
Rectified Experimental Protocol [87.76993857713217]
本稿では、ソースとターゲットのドメインデータ間のペアワイズ関係を用いたドメイン適応法をグラフ埋め込みとして定式化できることを示す。
具体的には、既存の3つのSupervised Domain Adaptationメソッドの損失関数を分析し、グラフ埋め込みを行うことを示す。
論文 参考訳(メタデータ) (2020-04-23T15:46:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。