論文の概要: UniGTE: Unified Graph-Text Encoding for Zero-Shot Generalization across Graph Tasks and Domains
- arxiv url: http://arxiv.org/abs/2510.16885v1
- Date: Sun, 19 Oct 2025 15:36:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.19337
- Title: UniGTE: Unified Graph-Text Encoding for Zero-Shot Generalization across Graph Tasks and Domains
- Title(参考訳): UniGTE: グラフタスクとドメイン間のゼロショット一般化のための統一グラフテキストエンコーディング
- Authors: Duo Wang, Yuan Zuo, Guangyue Lu, Junjie Wu,
- Abstract要約: 構造的および意味的推論を統一する命令調整型エンコーダデコーダフレームワークUniGTEを紹介する。
UniGTEは、ノードレベル、エッジレベル、およびさまざまなドメインにわたるグラフレベルタスクにまたがる5つのデータセットに基づいて、命令調整される。
クロスタスクおよびクロスドメイン設定下で、ノード分類、リンク予測、グラフ分類、グラフ回帰に関する最新のゼロショットの新たな結果を達成する。
- 参考スコア(独自算出の注目度): 12.05107789697386
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Generalizing to unseen graph tasks without task-specific supervision is challenging: conventional graph neural networks are typically tied to a fixed label space, while large language models (LLMs) struggle to capture graph structure. We introduce UniGTE, an instruction-tuned encoder-decoder framework that unifies structural and semantic reasoning. The encoder augments a pretrained autoregressive LLM with learnable alignment tokens and a structure-aware graph-text attention mechanism, enabling it to attend jointly to a tokenized graph and a natural-language task prompt while remaining permutation-invariant to node order. This yields compact, task-aware graph representations. Conditioned solely on these representations, a frozen LLM decoder predicts and reconstructs: it outputs the task answer and simultaneously paraphrases the input graph in natural language. The reconstruction objective regularizes the encoder to preserve structural cues. UniGTE is instruction-tuned on five datasets spanning node-level, edge-level, and graph-level tasks across diverse domains, yet requires no fine-tuning at inference. It achieves new state-of-the-art zero-shot results on node classification, link prediction, graph classification, and graph regression under cross-task and cross-domain settings, demonstrating that tight integration of graph structure with LLM semantics enables robust, transferable graph reasoning.
- Abstract(参考訳): 従来のグラフニューラルネットワークは一般に固定ラベル空間に結びついているが、大きな言語モデル(LLM)はグラフ構造を捉えるのに苦労している。
構造的および意味的推論を統一する命令調整型エンコーダデコーダフレームワークUniGTEを紹介する。
エンコーダは、学習可能なアライメントトークンと構造対応グラフテキストアテンション機構を備えた事前学習された自己回帰LDMを増強し、ノード順に置換不変のまま、トークン化されたグラフと自然言語タスクプロンプトに共同で参加できるようにする。
これにより、コンパクトでタスク対応のグラフ表現が得られる。
凍結LDMデコーダは、これらの表現にのみ依存し、タスク応答を出力し、自然言語で入力グラフをパラフレーズ化する。
再構成目的は、エンコーダを正規化して構造的手がかりを保存する。
UniGTEは、ノードレベル、エッジレベル、グラフレベルのタスクにまたがる5つのデータセットに対して、さまざまなドメインにまたがる命令調整を行うが、推論の微調整は不要である。
ノード分類、リンク予測、グラフ分類、グラフ回帰に関する新しい最先端ゼロショットの結果をクロスタスクおよびクロスドメイン設定下で達成し、グラフ構造とLLMセマンティクスとの緊密な統合により、堅牢で転送可能なグラフ推論が可能になることを実証した。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - LLM as GNN: Graph Vocabulary Learning for Text-Attributed Graph Foundation Models [87.68057302738457]
Text-Attributed Graphs (TAG) は、現実のシナリオにおいてユビキタスである。
大規模言語モデル(LLMs)とグラフニューラルネットワーク(GNNs)をTAGsに統合する努力にもかかわらず、既存のアプローチは分離されたアーキテクチャに悩まされている。
本稿では,グラフ語彙学習に基づくTAGのための汎用GFMであるPromptGFMを提案する。
論文 参考訳(メタデータ) (2025-03-05T09:45:22Z) - Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
タスクツリーを用いたグラフのクロスタスク一般化のための新しい手法を提案する。
本稿では,グラフニューラルネットワーク(GNN)を多種多様なタスクツリー上で事前学習することにより,伝達可能な知識を誘導することを示す。
これにより、最小限の微調整で下流タスクに効率的に適応できる。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - SGPT: Few-Shot Prompt Tuning for Signed Graphs [8.42756062274768]
Signed Graph Prompt Tuning(SGPT)は、事前トレーニングされた未署名のGNNを、数ショットの署名付きグラフタスクに適応させるグラフプロンプトフレームワークである。
我々は,SGPTが既存の最先端手法を著しく上回ることを示す7つのベンチマークグラフデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-12-11T09:22:46Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - GraphGPT: Graph Instruction Tuning for Large Language Models [27.036935149004726]
グラフニューラルネットワーク(GNN)は、グラフ構造を理解するために進化してきた。
堅牢性を高めるために、自己教師付き学習(SSL)はデータ拡張の重要なツールとなっている。
本研究は,ゼロショット学習環境におけるグラフモデルの一般化を推し進めることによって,この問題に対処する。
論文 参考訳(メタデータ) (2023-10-19T06:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。