論文の概要: Turning Tabular Foundation Models into Graph Foundation Models
- arxiv url: http://arxiv.org/abs/2508.20906v1
- Date: Thu, 28 Aug 2025 15:36:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.482245
- Title: Turning Tabular Foundation Models into Graph Foundation Models
- Title(参考訳): タブラル基礎モデルをグラフ基礎モデルに変換する
- Authors: Dmitry Eremeev, Gleb Bazhenov, Oleg Platonov, Artem Babenko, Liudmila Prokhorenkova,
- Abstract要約: 本稿では,TabPFNv2をバックボーンとする単純なグラフ基盤モデルを提案する。
G2T-FMは、元のノード機能を近隣の特徴集約で強化し、構造的な埋め込みを追加し、構築されたノード表現にTabPFNv2を適用する。
- 参考スコア(独自算出の注目度): 27.47522328312435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While foundation models have revolutionized such fields as natural language processing and computer vision, their application and potential within graph machine learning remain largely unexplored. One of the key challenges in designing graph foundation models (GFMs) is handling diverse node features that can vary across different graph datasets. Although many works on GFMs have been focused exclusively on text-attributed graphs, the problem of handling arbitrary features of other types in GFMs has not been fully addressed. However, this problem is not unique to the graph domain, as it also arises in the field of machine learning for tabular data. In this work, motivated by the recent success of tabular foundation models like TabPFNv2, we propose G2T-FM, a simple graph foundation model that employs TabPFNv2 as a backbone. Specifically, G2T-FM augments the original node features with neighborhood feature aggregation, adds structural embeddings, and then applies TabPFNv2 to the constructed node representations. Even in a fully in-context regime, our model achieves strong results, significantly outperforming publicly available GFMs and performing on par with well-tuned GNNs trained from scratch. Moreover, after finetuning, G2T-FM surpasses well-tuned GNN baselines, highlighting the potential of the proposed approach. More broadly, our paper reveals a previously overlooked direction of utilizing tabular foundation models for graph machine learning tasks.
- Abstract(参考訳): 基礎モデルは自然言語処理やコンピュータビジョンなどの分野に革命をもたらしたが、グラフ機械学習におけるその応用と可能性はほとんど解明されていない。
グラフ基盤モデル(GFM)の設計における重要な課題の1つは、さまざまなグラフデータセットにまたがる多様なノード機能を扱うことである。
GFMに関する多くの研究は、テキスト対応グラフにのみ焦点を合わせてきたが、GFMにおける他のタイプの任意の特徴を扱うという問題は、完全には解決されていない。
しかし、この問題はグラフ領域に固有のものではなく、グラフデータに対する機械学習の分野でも生じている。
本稿では,TabPFNv2のような表層基盤モデルの成功を動機として,TabPFNv2をバックボーンとして利用する単純なグラフ基盤モデルであるG2T-FMを提案する。
具体的には、G2T-FMは、近隣の特徴集約で元のノード機能を強化し、構造的な埋め込みを追加し、構築されたノード表現にTabPFNv2を適用する。
完全にコンテキスト内であっても、我々のモデルは強力な結果を得ることができ、公開GFMを著しく上回り、スクラッチから訓練されたよく訓練されたGNNと同等の性能を発揮する。
さらに、微調整後、G2T-FMは十分に調整されたGNNベースラインを超え、提案手法の可能性を強調した。
より広範に、グラフ機械学習タスクに表層基礎モデルを利用するという、これまで見過ごされていた方向性を明らかにした。
関連論文リスト
- GFT: Graph Foundation Model with Transferable Tree Vocabulary [52.17804507458509]
本稿では,木語彙を伝達可能なグラフファウンデーションモデルとして,GFTと命名されたクロスタスク・クロスドメイングラフ基盤モデルを提案する。
変換可能な語彙内で計算木をトークンとして扱うことにより、GFTはモデルの一般化を改善し、負の転送のリスクを低減する。
理論解析と広範な実験的研究により,グラフ学習におけるGFTの有効性が実証され,様々なタスクや領域にまたがるGFTの有効性が示された。
論文 参考訳(メタデータ) (2024-11-09T05:14:30Z) - LangGFM: A Large Language Model Alone Can be a Powerful Graph Foundation Model [27.047809869136458]
グラフ基礎モデル(GFM)が最近注目を集めている。
現在の研究は、グラフ学習タスクの特定のサブセットに焦点を当てる傾向がある。
GFMBenchは26のデータセットからなる体系的で包括的なベンチマークである。
また,大規模言語モデルに完全に依存する新しいGFMであるLangGFMを紹介する。
論文 参考訳(メタデータ) (2024-10-19T03:27:19Z) - Position: Graph Foundation Models are Already Here [53.737868336014735]
グラフ基礎モデル(GFM)は、グラフ領域において重要な研究トピックとして浮上している。
グラフ語彙の提唱によるGFM開発のための新しい視点」を提案する。
この観点は、将来のGFM設計を、ニューラルネットワークのスケーリング法則に従って前進させる可能性がある。
論文 参考訳(メタデータ) (2024-02-03T17:24:36Z) - Graph Foundation Models: Concepts, Opportunities and Challenges [66.37994863159861]
ファンデーションモデルは、さまざまな人工知能アプリケーションにおいて重要なコンポーネントとして現れてきた。
一般化と適応における基礎モデルの能力は、グラフ機械学習研究者を動機付け、新しいグラフ学習パラダイムを開発する可能性について議論する。
本稿では,グラフ基礎モデル(GFM)の概念を紹介し,その重要な特徴と基礎技術について概説する。
論文 参考訳(メタデータ) (2023-10-18T09:31:21Z) - FIMP: Foundation Model-Informed Message Passing for Graph Neural Networks [36.648927429221466]
Foundation-Informed Message Passing (FIMP)はグラフニューラルネットワーク(GNN)メッセージパッシングフレームワークである。
本研究では,基礎モデルの自己注意層をグラフ上で効果的に再利用し,ノード間アテンションに基づくメッセージパッシングを行うことを示す。
論文 参考訳(メタデータ) (2022-10-17T23:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。