論文の概要: Graph Foundation Models: Bridging Language Model Paradigms and Graph Optimization
- arxiv url: http://arxiv.org/abs/2509.24256v1
- Date: Mon, 29 Sep 2025 04:05:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.734498
- Title: Graph Foundation Models: Bridging Language Model Paradigms and Graph Optimization
- Title(参考訳): Graph Foundation Models: ブリッジ言語モデルパラダイムとグラフ最適化
- Authors: Yunhao Liang, Pujun Zhang, Yuan Qu, Shaochong Lin, Zuo-jun Max Shen,
- Abstract要約: グラフ構造上の全ての距離に基づく最適化問題を解くことができる最初のフレームワークであるグラフ基礎モデル(GFM)を紹介する。
GFMはグラフの複雑なトポロジカルおよびニューラルルールを内部化し、構造自体の接続を監督信号として扱うことができる。
本研究は, グラフ最適化にプリトレイン・トランスファー・フレームワークを適用する新たなパラダイムを確立し, 基礎モデル革新をオペレーション・リサーチに適用するための扉を開く。
- 参考スコア(独自算出の注目度): 4.502753947356616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pretrain-transfer paradigm, which underpins the success of large language models (LLMs), has demonstrated the immense power of creating foundation models that learn generalizable representations from vast datasets. However, extending this paradigm to Operations Research (OR) problems on graph structures remains challenging due to the fundamental conflict between the statistical flexibility of language and the strict combinatorial constraints of graphs. To bridge this gap, we introduce the Graph Foundation Model (GFM), the first framework capable of solving all distance-based optimization problems on graph structures. By introducing the LLM-like self-supervised pre-training paradigm on the paths generated from random walks in the graph, GFM is compelled to internalize the graph's complex topological and combinatorial rules, where the connectivity of the structure itself can be treated as the supervisory signal. Unlike existing neural methods that learn complex and task-specific solving policies, our approach leverages the pre-trained GFM as a foundational model of the graph's intrinsic structure, which in turn enables a simple generative heuristic to tackle a diverse range of optimization challenges effectively. Comprehensive experiments on networks ranging from 20 to 893 nodes demonstrate that GFM achieves competitive performance against specialized solvers across a variety of distinct optimization task classes, while maintaining significantly faster inference times. Our work establishes a new paradigm of adapting the pretrain-transfer framework to graph optimization, opening the door for applying foundation model innovations to OR.
- Abstract(参考訳): 大規模言語モデル(LLM)の成功を支えるプレトレイン・トランスファーのパラダイムは、膨大なデータセットから一般化可能な表現を学習する基盤モデルを作成するという大きな力を実証している。
しかし、このパラダイムをグラフ構造のオペレーション・リサーチ(OR)問題に拡張することは、言語の統計的柔軟性とグラフの厳密な組合せ制約との根本的な矛盾のため、依然として困難である。
このギャップを埋めるために、グラフ構造上の全ての距離に基づく最適化問題を解くことができる最初のフレームワークであるグラフ基礎モデル(GFM)を導入する。
グラフ内のランダムウォークから生成された経路にLLMのような自己教師付き事前学習パラダイムを導入することにより、GFMはグラフの複雑な位相的および組合せ的規則を内部化し、構造自体の接続性は監督信号として扱うことができる。
複雑でタスク固有の解法を学習する既存のニューラルネットワーク手法とは異なり、我々の手法は、事前学習されたGFMを、グラフ固有の構造の基礎モデルとして利用し、その結果、単純な生成的ヒューリスティックにより、多様な最適化課題に効果的に取り組むことができる。
20ノードから893ノードまでの網羅的な実験により、GFMは様々な最適化タスククラスにまたがる特殊解法と競合する性能を達成し、より高速な推論時間を維持できることを示した。
我々の研究は、グラフ最適化にプリトレイン・トランスファー・フレームワークを適用する新しいパラダイムを確立し、基礎モデル革新をORに適用するための扉を開く。
関連論文リスト
- G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - GraphOracle: A Foundation Model for Knowledge Graph Reasoning [9.894106590443714]
知識グラフ間の推論を統一する関係中心基盤モデルであるtextbftextscGraphOracleを紹介する。
クエリ依存型アテンション機構は,関係性と実体性の両方について帰納的表現を学習するために開発された。
多様な知識グラフの事前学習と、数分レベルの微調整により、実体、関係、グラフ全体に対する効果的な一般化が可能となる。
論文 参考訳(メタデータ) (2025-05-16T11:14:57Z) - GraphThought: Graph Combinatorial Optimization with Thought Generation [16.457287060520454]
グラフ最適化(GCO)問題は、ロジスティクスやバイオインフォマティクスといった領域の中心である。
我々はまず、高品質な中間推論ステップを生成するための構造化ガイダンスを提供する最適思考設計(OTD)問題を定式化する。
提案するGraphThoughtは, 効果的な推論シーケンスを生成する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-02-17T09:50:41Z) - Bridging Visualization and Optimization: Multimodal Large Language Models on Graph-Structured Combinatorial Optimization [56.17811386955609]
グラフ構造上の課題は、その非線形で複雑な性質のために本質的に困難である。
本研究では,高次構造的特徴を正確に保存するために,グラフを画像に変換する手法を提案する。
マルチモーダルな大規模言語モデルと単純な検索手法を組み合わせた革新的なパラダイムを生かし、新しい効果的なフレームワークを開発することを目指す。
論文 参考訳(メタデータ) (2025-01-21T08:28:10Z) - Graph-Aware Isomorphic Attention for Adaptive Dynamics in Transformers [0.0]
変換器の注意機構をグラフ演算として再構成する。
スパース GIN-Attention はスパース GIN を用いた微調整手法である。
論文 参考訳(メタデータ) (2025-01-04T22:30:21Z) - One Model for One Graph: A New Perspective for Pretraining with Cross-domain Graphs [59.7297608804716]
複雑なネットワークパターンをキャプチャする強力なツールとして、グラフニューラルネットワーク(GNN)が登場した。
既存のGNNには、慎重にドメイン固有のアーキテクチャ設計と、データセットのスクラッチからのトレーニングが必要です。
我々は、新しいクロスドメイン事前学習フレームワーク「1つのグラフのための1つのモデル」を提案する。
論文 参考訳(メタデータ) (2024-11-30T01:49:45Z) - Towards Graph Foundation Models: Training on Knowledge Graphs Enables Transferability to General Graphs [26.477872205199667]
知識グラフをトレーニングするために設計された統合グラフ推論フレームワークであるSCRを紹介する。
本稿では,従来のKG推論における意味的分離に対処する新しいメカニズムであるセマンティックコンディショニングメッセージパッシングを提案する。
以上の結果から,既存の基礎モデルよりも大幅な性能向上が見られた。
論文 参考訳(メタデータ) (2024-10-16T14:26:08Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。