論文の概要: GraphPFN: A Prior-Data Fitted Graph Foundation Model
- arxiv url: http://arxiv.org/abs/2509.21489v1
- Date: Thu, 25 Sep 2025 19:47:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.958272
- Title: GraphPFN: A Prior-Data Fitted Graph Foundation Model
- Title(参考訳): GraphPFN: 事前データフィットグラフ基礎モデル
- Authors: Dmitry Eremeev, Oleg Platonov, Gleb Bazhenov, Artem Babenko, Liudmila Prokhorenkova,
- Abstract要約: 大規模データセットで事前訓練された基礎モデルは、自然言語処理やコンピュータビジョンといった分野に変化をもたらした。
ノードレベルの予測のための事前データ付きネットワークであるGraphPFNを提案する。
最大50,000ノードのさまざまな実世界のグラフデータセットでは、GraphPFNは、微調整後の強いコンテキスト内学習のパフォーマンスと最先端の結果を示している。
- 参考スコア(独自算出の注目度): 27.47522328312435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models pretrained on large-scale datasets have transformed such fields as natural language processing and computer vision, but their application to graph data remains limited. Recently emerged graph foundation models, such as G2T-FM, utilize tabular foundation models for graph tasks and were shown to significantly outperform prior attempts to create GFMs. However, these models primarily rely on hand-crafted graph features, limiting their ability to learn complex graph-specific patterns. In this work, we propose GraphPFN: a prior-data fitted network for node-level prediction. First, we design a prior distribution of synthetic attributed graphs. For graph structure generation, we use a novel combination of multiple stochastic block models and a preferential attachment process. We then apply graph-aware structured causal models to generate node attributes and targets. This procedure allows us to efficiently generate a wide range of realistic graph datasets. Then, we augment the tabular foundation model LimiX with attention-based graph neighborhood aggregation layers and train it on synthetic graphs sampled from our prior, allowing the model to capture graph structural dependencies not present in tabular data. On diverse real-world graph datasets with up to 50,000 nodes, GraphPFN shows strong in-context learning performance and achieves state-of-the-art results after finetuning, outperforming both G2T-FM and task-specific GNNs trained from scratch on most datasets. More broadly, our work demonstrates that pretraining on synthetic graphs from a well-designed prior distribution is an effective strategy for building graph foundation models.
- Abstract(参考訳): 大規模データセットで事前訓練された基礎モデルは、自然言語処理やコンピュータビジョンなどの分野に変化をもたらしたが、グラフデータへの応用は限定的である。
近年,G2T-FM などのグラフ基礎モデルでは,グラフタスクの表層基礎モデルが利用されており,GFM 作成以前の試みよりも大幅に優れていた。
しかし、これらのモデルは主に手作りのグラフ機能に依存しており、複雑なグラフ固有のパターンを学習する能力を制限する。
本研究では,ノードレベルの予測のための事前データ対応ネットワークであるGraphPFNを提案する。
まず,合成属性グラフの事前分布を設計する。
グラフ構造生成には、複数の確率ブロックモデルと優先的なアタッチメントプロセスを組み合わせた新しい組み合わせを用いる。
次に、ノード属性とターゲットを生成するために、グラフ対応構造因果モデルを適用する。
この手法により、幅広いリアルグラフデータセットを効率的に生成できる。
次に,注目グラフ近傍のアグリゲーション層を用いて表層基礎モデルLimiXを拡張し,先行データからサンプリングした合成グラフ上で学習し,表層データに存在しないグラフ構造依存性を抽出する。
最大50,000ノードのさまざまな実世界のグラフデータセット上では、GraphPFNは、コンテキスト内学習のパフォーマンスが強く、微調整後の最先端の結果が得られ、ほとんどのデータセットでスクラッチからトレーニングされたG2T-FMとタスク固有のGNNの両方を上回っている。
より広義に、よく設計された事前分布から合成グラフを事前学習することが、グラフ基盤モデルを構築する上で効果的な戦略であることを示す。
関連論文リスト
- Turning Tabular Foundation Models into Graph Foundation Models [27.47522328312435]
グラフ基礎モデルをグラフ基礎モデルに変換するためのフレームワークであるG2T-FMを提案する。
G2T-FMは、元のノード機能を近隣の特徴集約で強化し、構造的な埋め込みを追加し、構築されたノード表現にTFMを適用する。
我々のモデルは、公開GFMを著しく上回り、スクラッチから訓練されたよく訓練されたGNNよりも、競争力があり、しばしば優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-08-28T15:36:37Z) - Graph Generative Pre-trained Transformer [25.611007241470645]
この研究は、グラフをノードセットとエッジセットのシーケンスとして表現する別のアプローチを再考する。
本稿では,グラフ生成事前学習型変換器(G2PT)について紹介する。
G2PTは、ジェネリックグラフと分子データセットの両方において優れた生成性能を実現する。
論文 参考訳(メタデータ) (2025-01-02T05:44:11Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - An Automatic Graph Construction Framework based on Large Language Models for Recommendation [49.51799417575638]
本稿では,大規模言語モデルに基づく自動グラフ構築フレームワークであるAutoGraphを紹介する。
LLMはユーザ好みとアイテムの知識を推論し、セマンティックベクターとして符号化する。
潜在因子は、ユーザ/イテムノードをリンクする余分なノードとして組み込まれ、結果として、深いグローバルビューセマンティクスを持つグラフとなる。
論文 参考訳(メタデータ) (2024-12-24T07:51:29Z) - Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
タスクツリーを用いたグラフのクロスタスク一般化のための新しい手法を提案する。
本稿では,グラフニューラルネットワーク(GNN)を多種多様なタスクツリー上で事前学習することにより,伝達可能な知識を誘導することを示す。
これにより、最小限の微調整で下流タスクに効率的に適応できる。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - OpenGraph: Towards Open Graph Foundation Models [20.401374302429627]
グラフニューラルネットワーク(GNN)は、構造情報を符号化するための有望な技術として登場した。
主な課題は、異なる性質を持つグラフデータを一般化することの難しさである。
この課題に対処するために,OpenGraphと呼ばれる新しいグラフ基盤モデルを提案する。
論文 参考訳(メタデータ) (2024-03-02T08:05:03Z) - GraphMaker: Can Diffusion Models Generate Large Attributed Graphs? [7.330479039715941]
ノード属性を持つ大規模グラフは、様々な現実世界のアプリケーションでますます一般的になっている。
従来のグラフ生成法は、これらの複雑な構造を扱う能力に制限がある。
本稿では,大きな属性グラフを生成するために特別に設計された新しい拡散モデルであるGraphMakerを紹介する。
論文 参考訳(メタデータ) (2023-10-20T22:12:46Z) - Graph Generative Model for Benchmarking Graph Neural Networks [73.11514658000547]
本稿では,プライバシ制御により実世界のグラフの分布を学習し,再現する新しいグラフ生成モデルを提案する。
我々のモデルは、GNNモデルのベンチマークに効果的に使用できる大規模な実世界のグラフの、プライバシ制御された合成代用をうまく生成することができる。
論文 参考訳(メタデータ) (2022-07-10T06:42:02Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。