論文の概要: RAG-GFM: Overcoming In-Memory Bottlenecks in Graph Foundation Models via Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2601.15124v2
- Date: Sat, 24 Jan 2026 15:05:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 13:23:48.800339
- Title: RAG-GFM: Overcoming In-Memory Bottlenecks in Graph Foundation Models via Retrieval-Augmented Generation
- Title(参考訳): RAG-GFM:Retrieval-Augmented Generationによるグラフ基盤モデルにおけるインメモリ・ブートネックの克服
- Authors: Haonan Yuan, Qingyun Sun, Jiacheng Tao, Xingcheng Fu, Jianxin Li,
- Abstract要約: Graph Foundation Models (GFMs) はグラフ学習のフロンティアとして登場し、さまざまなタスク間で伝達可能な表現を提供することが期待されている。
本稿では,パラメータから知識をオフロードする検索型生成支援グラフ基礎モデルであるRAG-GFMを提案する。
RAG-GFMは、クロスドメインノードとグラフ分類の両方において、13の最先端のベースラインを一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 27.59455285600957
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Foundation Models (GFMs) have emerged as a frontier in graph learning, which are expected to deliver transferable representations across diverse tasks. However, GFMs remain constrained by in-memory bottlenecks: they attempt to encode knowledge into model parameters, which limits semantic capacity, introduces heavy lossy compression with conflicts, and entangles graph representation with the knowledge in ways that hinder efficient adaptation, undermining scalability and interpretability. In this work,we propose RAG-GFM, a Retrieval-Augmented Generation aided Graph Foundation Model that offloads knowledge from parameters and complements parameterized learning. To externalize graph knowledge, we build a dual-modal unified retrieval module, where a semantic store from prefix-structured text and a structural store from centrality-based motif. To preserve heterogeneous information, we design a dual-view alignment objective that contrasts both modalities to capture both content and relational patterns. To enable efficient downstream adaptation, we perform in-context augmentation to enrich supporting instances with retrieved texts and motifs as contextual evidence. Extensive experiments on five benchmark graph datasets demonstrate that RAG-GFM consistently outperforms 13 state-of-the-art baselines in both cross-domain node and graph classification, achieving superior effectiveness and efficiency.
- Abstract(参考訳): Graph Foundation Models (GFMs) はグラフ学習のフロンティアとして登場し、さまざまなタスク間で伝達可能な表現を提供することが期待されている。
セマンティックキャパシティを制限するモデルパラメータに知識をエンコードし、コンフリクトと重く損失のある圧縮を導入し、グラフ表現を効率的な適応を妨げ、スケーラビリティと解釈性を損なうような方法で知識と絡み合わせる。
本研究では,パラメータから知識をオフロードし,パラメータ化学習を補完する検索補助グラフ基礎モデルであるRAG-GFMを提案する。
グラフ知識の外部化を目的として,2つのモーダル統一検索モジュールを構築し,プレフィックス構造化テキストからのセマンティックストアと集中型モチーフからの構造化ストアを構築する。
不均一な情報を保存するために、コンテンツとリレーショナルパターンの両方をキャプチャするためのモダリティを対比した双対ビューアライメントの目的を設計する。
効率的な下流適応を実現するために、検索したテキストやモチーフを文脈証拠としてサポートするインスタンスを充実させるために、コンテキスト内拡張を行う。
5つのベンチマークグラフデータセットに対する大規模な実験により、RAG-GFMは、クロスドメインノードとグラフ分類の両方において、13の最先端のベースラインを一貫して上回り、優れた効率と効率を実現している。
関連論文リスト
- Bi-View Embedding Fusion: A Hybrid Learning Approach for Knowledge Graph's Nodes Classification Addressing Problems with Limited Data [1.0308647202215706]
Bi-Viewは、ナレッジグラフのノード機能の情報的内容を増加させる、新しいハイブリッドアプローチである。
このアプローチは、特に初期機能に乏しいシナリオにおいて、ダウンストリームタスクのパフォーマンスを改善します。
論文 参考訳(メタデータ) (2025-11-17T06:45:14Z) - GRAVER: Generative Graph Vocabularies for Robust Graph Foundation Models Fine-tuning [92.19531718298744]
Graph Foundation Models (GFMs) は、さまざまなグラフタスクやドメインにまたがる広範な適用性を約束している。
既存のGFMは不安定な数発の微調整に苦戦している。
本稿では,ロバスト GFM ファインチューニングフレームワーク GRAVER を提案する。
論文 参考訳(メタデータ) (2025-11-05T13:07:26Z) - GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - GFM-RAG: Graph Foundation Model for Retrieval Augmented Generation [83.72561905487447]
本稿では,新しいグラフ基盤モデル (GFM) である GFM-RAG について紹介する。
GFM-RAGは、複雑なクエリ-知識関係をキャプチャするグラフ構造を理由とする、革新的なグラフニューラルネットワークによって実現されている。
効率とニューラルスケーリング法則との整合性を維持しつつ、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-02-03T07:04:29Z) - Against Multifaceted Graph Heterogeneity via Asymmetric Federated Prompt Learning [5.813912301780917]
本稿では,非対称なグラフ知識の伝達を効率的に行うためのフェデレートグラフプロンプト学習(FedGPL)フレームワークを提案する。
我々は,FedGPLの精度と有効性を示すため,理論解析と広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-11-04T11:42:25Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Graph Contrastive Learning with Adaptive Augmentation [23.37786673825192]
本稿では,適応的拡張を用いた新しいグラフコントラスト表現学習法を提案する。
具体的には,ノードの集中度に基づく拡張スキームを設計し,重要な結合構造を明らかにする。
提案手法は,既存の最先端のベースラインを一貫して上回り,教師付きベースラインを超えている。
論文 参考訳(メタデータ) (2020-10-27T15:12:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。