論文の概要: TFMLinker: Universal Link Predictor by Graph In-Context Learning with Tabular Foundation Models
- arxiv url: http://arxiv.org/abs/2602.08592v1
- Date: Mon, 09 Feb 2026 12:33:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.226669
- Title: TFMLinker: Universal Link Predictor by Graph In-Context Learning with Tabular Foundation Models
- Title(参考訳): TFMLinker: タブラル基礎モデルを用いたグラフインコンテキスト学習によるユニバーサルリンク予測
- Authors: Tianyin Liao, Chunyu Hu, Yicheng Sui, Xingxuan Zhang, Peng Cui, Jianxin Li, Ziwei Zhang,
- Abstract要約: リンク予測は、レコメンデーションシステム、薬物発見、ナレッジグラフなど幅広い応用でグラフ機械学習の基本的なタスクである。
我々は,TFMLinker (Tabular Foundation Model for Link Predictor) を提案する。TFMのコンテキスト内学習機能を活用して,データセット固有の微調整を必要とせず,多様なグラフ間のリンク予測を行う。
- 参考スコア(独自算出の注目度): 26.80493258573144
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Link prediction is a fundamental task in graph machine learning with widespread applications such as recommendation systems, drug discovery, knowledge graphs, etc. In the foundation model era, how to develop universal link prediction methods across datasets and domains becomes a key problem, with some initial attempts adopting Graph Foundation Models utilizing Graph Neural Networks and Large Language Models. However, the existing methods face notable limitations, including limited pre-training scale or heavy reliance on textual information. Motivated by the success of tabular foundation models (TFMs) in achieving universal prediction across diverse tabular datasets, we explore an alternative approach by TFMs, which are pre-trained on diverse synthetic datasets sampled from structural causal models and support strong in-context learning independent of textual attributes. Nevertheless, adapting TFMs for link prediction faces severe technical challenges such as how to obtain the necessary context and capture link-centric topological information. To solve these challenges, we propose TFMLinker (Tabular Foundation Model for Link Predictor), aiming to leverage the in-context learning capabilities of TFMs to perform link prediction across diverse graphs without requiring dataset-specific fine-tuning. Specifically, we first develop a prototype-augmented local-global context module to construct context that captures both graph-specific and cross-graph transferable patterns. Next, we design a universal topology-aware link encoder to capture link-centric topological information and generate link representations as inputs for the TFM. Finally, we employ the TFM to predict link existence through in-context learning. Experiments on 6 graph benchmarks across diverse domains demonstrate the superiority of our method over state-of-the-art baselines without requiring dataset-specific finetuning.
- Abstract(参考訳): リンク予測は、レコメンデーションシステム、薬物発見、ナレッジグラフなど幅広い応用でグラフ機械学習の基本的なタスクである。
基礎モデル時代において、データセットとドメインをまたいだユニバーサルリンク予測手法の開発は重要な問題となり、グラフニューラルネットワークと大規模言語モデルを利用したグラフ基礎モデルの導入が試みられている。
しかし、既存の手法では、事前学習の規模が制限されたり、テキスト情報に大きく依存するなど、顕著な制限に直面している。
表層基盤モデル(TFMs)が多種多様な表層データセットにまたがって普遍的な予測を達成することに成功して、構造因果モデルからサンプリングされた多様な合成データセットを事前学習し、テキスト属性に依存しない強い文脈内学習を支援するTFMによる代替アプローチを検討する。
それでも、リンク予測にTFMを適用することは、必要なコンテキストを取得し、リンク中心のトポロジ情報をキャプチャする方法など、深刻な技術的課題に直面している。
これらの課題を解決するために,TFMLinker (Tabular Foundation Model for Link Predictor) を提案する。
具体的には、まず、グラフ固有パターンとクロスグラフ転送可能なパターンの両方をキャプチャするコンテキストを構築するために、拡張されたローカル・グローバル・コンテキスト・モジュールを開発する。
次に、リンク中心のトポロジ情報を取得し、TFMの入力としてリンク表現を生成する汎用トポロジ対応リンクエンコーダを設計する。
最後に,テキスト内学習を通じてリンクの存在を予測するために,TFMを用いた。
様々な領域にわたる6つのグラフベンチマークの実験は、データセット固有の微調整を必要とせず、最先端のベースラインよりもメソッドの方が優れていることを示す。
関連論文リスト
- OWLEYE: Zero-Shot Learner for Cross-Domain Graph Data Anomaly Detection [48.77471686671269]
OWLEYEは、複数のグラフから正常な振る舞いの伝達可能なパターンを学習する新しいフレームワークである。
OWLEYEは最先端のベースラインに比べて性能と一般化性が優れていることを示す。
論文 参考訳(メタデータ) (2026-01-27T02:08:18Z) - Relation-Aware Graph Foundation Model [21.86954503656643]
グラフ基礎モデル (GFMs) がグラフ学習において有望な方向として登場した。
明示的なトークン表現に依存する言語モデルとは異なり、グラフは一般化のための明確に定義された単位を持たない。
GFMの基本単位として関係トークンを利用する新しいフレームワークREEFを提案する。
論文 参考訳(メタデータ) (2025-05-17T14:34:41Z) - Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
タスクツリーを用いたグラフのクロスタスク一般化のための新しい手法を提案する。
本稿では,グラフニューラルネットワーク(GNN)を多種多様なタスクツリー上で事前学習することにより,伝達可能な知識を誘導することを示す。
これにより、最小限の微調整で下流タスクに効率的に適応できる。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - Relational Learning in Pre-Trained Models: A Theory from Hypergraph Recovery Perspective [60.64922606733441]
我々は,関係学習をハイパーグラフリカバリとして形式化する数学的モデルを導入し,基礎モデル(FM)の事前学習について検討する。
我々のフレームワークでは、世界はハイパーグラフとして表現され、データはハイパーエッジからランダムなサンプルとして抽象化される。我々は、このハイパーグラフを復元するための事前学習モデル(PTM)の有効性を理論的に検証し、ミニマックスに近い最適スタイルでデータ効率を解析する。
論文 参考訳(メタデータ) (2024-06-17T06:20:39Z) - Universal Link Predictor By In-Context Learning on Graphs [27.394215950768643]
パラメトリックモデルのパターン学習能力とアプローチの一般化性を組み合わせた新しいモデルであるユニバーサルリンク予測器(UniLP)を導入する。
UniLPは、さまざまなグラフをまたいだ接続パターンを自律的に識別するように設計されている。
論文 参考訳(メタデータ) (2024-02-12T15:52:27Z) - Graph Foundation Models: Concepts, Opportunities and Challenges [66.37994863159861]
ファンデーションモデルは、さまざまな人工知能アプリケーションにおいて重要なコンポーネントとして現れてきた。
一般化と適応における基礎モデルの能力は、グラフ機械学習研究者を動機付け、新しいグラフ学習パラダイムを開発する可能性について議論する。
本稿では,グラフ基礎モデル(GFM)の概念を紹介し,その重要な特徴と基礎技術について概説する。
論文 参考訳(メタデータ) (2023-10-18T09:31:21Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - SMiLE: Schema-augmented Multi-level Contrastive Learning for Knowledge
Graph Link Prediction [28.87290783250351]
リンク予測は、知識グラフにおけるエンティティ間の欠落したリンクを推測するタスクである。
本稿では,知識グラフリンク予測を行うための新しいマルチレベルコントラスト学習フレームワーク(SMiLE)を提案する。
論文 参考訳(メタデータ) (2022-10-10T17:40:19Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。