論文の概要: Turning Tabular Foundation Models into Graph Foundation Models
- arxiv url: http://arxiv.org/abs/2508.20906v2
- Date: Tue, 23 Sep 2025 17:49:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 16:16:25.762442
- Title: Turning Tabular Foundation Models into Graph Foundation Models
- Title(参考訳): タブラル基礎モデルをグラフ基礎モデルに変換する
- Authors: Dmitry Eremeev, Gleb Bazhenov, Oleg Platonov, Artem Babenko, Liudmila Prokhorenkova,
- Abstract要約: グラフ基礎モデルをグラフ基礎モデルに変換するためのフレームワークであるG2T-FMを提案する。
G2T-FMは、元のノード機能を近隣の特徴集約で強化し、構造的な埋め込みを追加し、構築されたノード表現にTFMを適用する。
我々のモデルは、公開GFMを著しく上回り、スクラッチから訓練されたよく訓練されたGNNよりも、競争力があり、しばしば優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 27.47522328312435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While foundation models have revolutionized such fields as natural language processing and computer vision, their potential in graph machine learning remains largely unexplored. One of the key challenges in designing graph foundation models (GFMs) is handling diverse node features that can vary across different graph datasets. While many works on GFMs have focused exclusively on text-attributed graphs, the problem of handling arbitrary features of other types in GFMs has not been fully addressed. However, this problem is not unique to the graph domain, as it also arises in the field of machine learning for tabular data. In this work, motivated by the recent success of tabular foundation models (TFMs) like TabPFNv2 or LimiX, we propose G2T-FM, a simple framework for turning tabular foundation models into graph foundation models. Specifically, G2T-FM augments the original node features with neighborhood feature aggregation, adds structural embeddings, and then applies a TFM to the constructed node representations. Even in a fully in-context regime, our model achieves strong results, significantly outperforming publicly available GFMs and performing competitively with, and often better than, well-tuned GNNs trained from scratch. Moreover, after finetuning, G2T-FM surpasses well-tuned GNN baselines. In particular, when combined with LimiX, G2T-FM often outperforms the best GNN by a significant margin. In summary, our paper reveals the potential of a previously overlooked direction of utilizing tabular foundation models for graph machine learning tasks.
- Abstract(参考訳): 基礎モデルは自然言語処理やコンピュータビジョンなどの分野に革命をもたらしたが、グラフ機械学習におけるその可能性はほとんど解明されていない。
グラフ基盤モデル(GFM)の設計における重要な課題の1つは、さまざまなグラフデータセットにまたがる多様なノード機能を扱うことである。
GFMに関する多くの研究は、テキスト分散グラフにのみ焦点をあててきたが、GFMにおける他のタイプの任意の特徴を扱うという問題は、完全には解決されていない。
しかし、この問題はグラフ領域に固有のものではなく、グラフデータに対する機械学習の分野でも生じている。
本稿では,TabPFNv2 や LimiX のような最近の表層基盤モデル (TFM) の成功を動機として,表層基礎モデルをグラフ基盤モデルに変換するシンプルなフレームワーク G2T-FM を提案する。
具体的には、G2T-FMは、近傍の特徴集約で元のノード機能を強化し、構造的な埋め込みを追加し、構築されたノード表現にTFMを適用する。
完全にコンテキスト内であっても、我々のモデルは強力な結果を得ることができ、公開GFMを著しく上回り、スクラッチから訓練されたよく訓練されたGNNよりも競争力があり、しばしば優れている。
さらに、微調整後、G2T-FMは十分に調整されたGNNベースラインを超える。
特に、LimiX と組み合わせると、G2T-FM は GNN を著しく上回っている。
要約して,本稿では,グラフ機械学習タスクに表層基礎モデルを活用するという,これまで見過ごされていた方向性の可能性を明らかにする。
関連論文リスト
- GFT: Graph Foundation Model with Transferable Tree Vocabulary [52.17804507458509]
本稿では,木語彙を伝達可能なグラフファウンデーションモデルとして,GFTと命名されたクロスタスク・クロスドメイングラフ基盤モデルを提案する。
変換可能な語彙内で計算木をトークンとして扱うことにより、GFTはモデルの一般化を改善し、負の転送のリスクを低減する。
理論解析と広範な実験的研究により,グラフ学習におけるGFTの有効性が実証され,様々なタスクや領域にまたがるGFTの有効性が示された。
論文 参考訳(メタデータ) (2024-11-09T05:14:30Z) - LangGFM: A Large Language Model Alone Can be a Powerful Graph Foundation Model [27.047809869136458]
グラフ基礎モデル(GFM)が最近注目を集めている。
現在の研究は、グラフ学習タスクの特定のサブセットに焦点を当てる傾向がある。
GFMBenchは26のデータセットからなる体系的で包括的なベンチマークである。
また,大規模言語モデルに完全に依存する新しいGFMであるLangGFMを紹介する。
論文 参考訳(メタデータ) (2024-10-19T03:27:19Z) - Position: Graph Foundation Models are Already Here [53.737868336014735]
グラフ基礎モデル(GFM)は、グラフ領域において重要な研究トピックとして浮上している。
グラフ語彙の提唱によるGFM開発のための新しい視点」を提案する。
この観点は、将来のGFM設計を、ニューラルネットワークのスケーリング法則に従って前進させる可能性がある。
論文 参考訳(メタデータ) (2024-02-03T17:24:36Z) - Graph Foundation Models: Concepts, Opportunities and Challenges [66.37994863159861]
ファンデーションモデルは、さまざまな人工知能アプリケーションにおいて重要なコンポーネントとして現れてきた。
一般化と適応における基礎モデルの能力は、グラフ機械学習研究者を動機付け、新しいグラフ学習パラダイムを開発する可能性について議論する。
本稿では,グラフ基礎モデル(GFM)の概念を紹介し,その重要な特徴と基礎技術について概説する。
論文 参考訳(メタデータ) (2023-10-18T09:31:21Z) - FIMP: Foundation Model-Informed Message Passing for Graph Neural Networks [36.648927429221466]
Foundation-Informed Message Passing (FIMP)はグラフニューラルネットワーク(GNN)メッセージパッシングフレームワークである。
本研究では,基礎モデルの自己注意層をグラフ上で効果的に再利用し,ノード間アテンションに基づくメッセージパッシングを行うことを示す。
論文 参考訳(メタデータ) (2022-10-17T23:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。