論文の概要: GRAVER: Generative Graph Vocabularies for Robust Graph Foundation Models Fine-tuning
- arxiv url: http://arxiv.org/abs/2511.05592v1
- Date: Wed, 05 Nov 2025 13:07:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.478351
- Title: GRAVER: Generative Graph Vocabularies for Robust Graph Foundation Models Fine-tuning
- Title(参考訳): GRAVER:ロバストグラフ基礎モデルのための生成グラフ語彙
- Authors: Haonan Yuan, Qingyun Sun, Junhua Shi, Xingcheng Fu, Bryan Hooi, Jianxin Li, Philip S. Yu,
- Abstract要約: Graph Foundation Models (GFMs) は、さまざまなグラフタスクやドメインにまたがる広範な適用性を約束している。
既存のGFMは不安定な数発の微調整に苦戦している。
本稿では,ロバスト GFM ファインチューニングフレームワーク GRAVER を提案する。
- 参考スコア(独自算出の注目度): 92.19531718298744
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Inspired by the remarkable success of foundation models in language and vision, Graph Foundation Models (GFMs) hold significant promise for broad applicability across diverse graph tasks and domains. However, existing GFMs struggle with unstable few-shot fine-tuning, where both performance and adaptation efficiency exhibit significant fluctuations caused by the randomness in the support sample selection and structural discrepancies between the pre-trained and target graphs. How to fine-tune GFMs robustly and efficiently to enable trustworthy knowledge transfer across domains and tasks is the major challenge. In this paper, we propose GRAVER, a novel Generative gRAph VocabulariEs for Robust GFM fine-tuning framework that tackles the aforementioned instability via generative augmentations. Specifically, to identify transferable units, we analyze and extract key class-specific subgraph patterns by ego-graph disentanglement and validate their transferability both theoretically and empirically. To enable effective pre-training across diverse domains, we leverage a universal task template based on ego-graph similarity and construct graph vocabularies via graphon-based generative experts. To facilitate robust and efficient prompt fine-tuning, we grave the support samples with in-context vocabularies, where the lightweight MoE-CoE network attentively routes knowledge from source domains. Extensive experiments demonstrate the superiority of GRAVER over effectiveness, robustness, and efficiency on downstream few-shot node and graph classification tasks compared with 15 state-of-the-art baselines.
- Abstract(参考訳): 言語とビジョンにおける基礎モデルの顕著な成功に触発されたグラフ基礎モデル(GFM)は、さまざまなグラフタスクやドメインにまたがる広範な適用性に対して、大きな保証を持っている。
しかし、既存のGFMは不安定な数ショットの微調整に苦慮しており、その場合の性能と適応効率は、サポートサンプル選択におけるランダム性や、事前訓練されたグラフと対象グラフの間の構造的相違に起因する大きな変動を示す。
GFMを堅牢かつ効率的に微調整する方法は、ドメインやタスク間で信頼できる知識の伝達を可能にすることが大きな課題である。
本稿では,GRAVERを提案する。GRAVERはロバストGFMファインチューニングのための新しいGRAph VocabulariEである。
具体的には、転送可能な単位を識別するために、エゴグラフのアンタングルメントによるキークラス固有のサブグラフパターンの解析と抽出を行い、理論的にも経験的にもそれらの転送可能性を検証する。
多様な領域にまたがる効果的な事前学習を可能にするために,エゴグラフの類似性に基づく普遍的なタスクテンプレートを活用し,グラフベースの生成専門家によるグラフ語彙の構築を行う。
頑健で効率的なプロンプト微調整を容易にするため,サポートサンプルを文脈内語彙で埋め,軽量なMoE-CoEネットワークがソースドメインからの知識を注意深くルーティングする。
GRAVERの効率性、堅牢性、効率性よりも、下流のいくつかのショットノードやグラフ分類タスクの方が15の最先端のベースラインよりも優れていることを示した。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
タスクツリーを用いたグラフのクロスタスク一般化のための新しい手法を提案する。
本稿では,グラフニューラルネットワーク(GNN)を多種多様なタスクツリー上で事前学習することにより,伝達可能な知識を誘導することを示す。
これにより、最小限の微調整で下流タスクに効率的に適応できる。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - GFT: Graph Foundation Model with Transferable Tree Vocabulary [52.17804507458509]
本稿では,木語彙を伝達可能なグラフファウンデーションモデルとして,GFTと命名されたクロスタスク・クロスドメイングラフ基盤モデルを提案する。
変換可能な語彙内で計算木をトークンとして扱うことにより、GFTはモデルの一般化を改善し、負の転送のリスクを低減する。
理論解析と広範な実験的研究により,グラフ学習におけるGFTの有効性が実証され,様々なタスクや領域にまたがるGFTの有効性が示された。
論文 参考訳(メタデータ) (2024-11-09T05:14:30Z) - Against Multifaceted Graph Heterogeneity via Asymmetric Federated Prompt Learning [5.813912301780917]
本稿では,非対称なグラフ知識の伝達を効率的に行うためのフェデレートグラフプロンプト学習(FedGPL)フレームワークを提案する。
我々は,FedGPLの精度と有効性を示すため,理論解析と広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-11-04T11:42:25Z) - LangGFM: A Large Language Model Alone Can be a Powerful Graph Foundation Model [27.047809869136458]
グラフ基礎モデル(GFM)が最近注目を集めている。
現在の研究は、グラフ学習タスクの特定のサブセットに焦点を当てる傾向がある。
GFMBenchは26のデータセットからなる体系的で包括的なベンチマークである。
また,大規模言語モデルに完全に依存する新しいGFMであるLangGFMを紹介する。
論文 参考訳(メタデータ) (2024-10-19T03:27:19Z) - Towards Graph Foundation Models: Training on Knowledge Graphs Enables Transferability to General Graphs [26.477872205199667]
知識グラフをトレーニングするために設計された統合グラフ推論フレームワークであるSCRを紹介する。
本稿では,従来のKG推論における意味的分離に対処する新しいメカニズムであるセマンティックコンディショニングメッセージパッシングを提案する。
以上の結果から,既存の基礎モデルよりも大幅な性能向上が見られた。
論文 参考訳(メタデータ) (2024-10-16T14:26:08Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Position: Graph Foundation Models are Already Here [53.737868336014735]
グラフ基礎モデル(GFM)は、グラフ領域において重要な研究トピックとして浮上している。
グラフ語彙の提唱によるGFM開発のための新しい視点」を提案する。
この観点は、将来のGFM設計を、ニューラルネットワークのスケーリング法則に従って前進させる可能性がある。
論文 参考訳(メタデータ) (2024-02-03T17:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。