論文の概要: Graph-R1: Incentivizing the Zero-Shot Graph Learning Capability in LLMs via Explicit Reasoning
- arxiv url: http://arxiv.org/abs/2508.17387v2
- Date: Thu, 28 Aug 2025 08:20:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 11:47:01.187078
- Title: Graph-R1: Incentivizing the Zero-Shot Graph Learning Capability in LLMs via Explicit Reasoning
- Title(参考訳): Graph-R1:明示的推論によるLCMにおけるゼロショットグラフ学習能力のインセンティブ化
- Authors: Yicong Wu, Guangyue Lu, Yuan Zuo, Huarong Zhang, Junjie Wu,
- Abstract要約: グラフニューラルネットワーク(GNN)は固定ラベル空間によって制限されるが、Large Language Models(LLM)は構造的帰納バイアスを欠いている。
近年のLarge Reasoning Models (LRMs) の進歩は、明示的な長い連鎖推論を通じてゼロショットの代替手段を提供する。
本稿では,LRMによるテキスト推論問題として,ノード分類,リンク予測,グラフ分類などのグラフタスクを再構成するGNNフリーアプローチを提案する。
- 参考スコア(独自算出の注目度): 7.1931434571877375
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generalizing to unseen graph tasks without task-pecific supervision remains challenging. Graph Neural Networks (GNNs) are limited by fixed label spaces, while Large Language Models (LLMs) lack structural inductive biases. Recent advances in Large Reasoning Models (LRMs) provide a zero-shot alternative via explicit, long chain-of-thought reasoning. Inspired by this, we propose a GNN-free approach that reformulates graph tasks--node classification, link prediction, and graph classification--as textual reasoning problems solved by LRMs. We introduce the first datasets with detailed reasoning traces for these tasks and develop Graph-R1, a reinforcement learning framework that leverages task-specific rethink templates to guide reasoning over linearized graphs. Experiments demonstrate that Graph-R1 outperforms state-of-the-art baselines in zero-shot settings, producing interpretable and effective predictions. Our work highlights the promise of explicit reasoning for graph learning and provides new resources for future research.
- Abstract(参考訳): タスクを意識しないグラフタスクの一般化は依然として困難である。
グラフニューラルネットワーク(GNN)は固定ラベル空間によって制限されるが、Large Language Models(LLM)は構造的帰納バイアスを欠いている。
近年のLarge Reasoning Models (LRMs) の進歩は、明示的な長い連鎖推論を通じてゼロショットの代替手段を提供する。
そこで本研究では,ノード分類,リンク予測,グラフ分類といったグラフタスクを書き換えるGNNフリーな手法を提案する。
これらのタスクの詳細な推論トレースを備えた最初のデータセットを導入し、タスク固有の再考テンプレートを活用して線形化されたグラフ上の推論をガイドする強化学習フレームワークであるGraph-R1を開発した。
実験によると、Graph-R1はゼロショット設定で最先端のベースラインを上回り、解釈可能で効果的な予測を生成する。
我々の研究は、グラフ学習の明確な推論の可能性を強調し、将来の研究に新たなリソースを提供する。
関連論文リスト
- G1: Teaching LLMs to Reason on Graphs with Reinforcement Learning [58.73279333365234]
合成グラフ理論タスクにおける強化学習(RL)はグラフ推論能力を著しく拡張することができる。
RL on ErdosでG1はグラフ推論の大幅な改善を実現し、微調整された3BモデルはQwen2.5-72B-Instruct(24倍)よりも優れています。
我々の研究は、グラフ理論上のRLでLLMを微調整することで、強力なグラフ推論器を構築するための効率的でスケーラブルな経路を提供する。
論文 参考訳(メタデータ) (2025-05-24T04:33:41Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Graph Agent: Explicit Reasoning Agent for Graphs [3.422149942031643]
本稿では,大規模言語モデル(LLM)を活用するインテリジェントエージェントであるグラフエージェント(GA),帰納的推論モジュール,グラフ推論タスクのための長期メモリを紹介する。
GAはシンボリック推論と既存のグラフ埋め込みの側面を統合し、複雑なグラフ推論タスクに革新的なアプローチを提供する。
その結果、GAは最先端のパフォーマンスに達し、精度は90.65%、95.48%、Cola、PubMed、PrimeKGの各データセットで89.32%であった。
論文 参考訳(メタデータ) (2023-10-25T07:20:16Z) - GraphGPT: Graph Instruction Tuning for Large Language Models [27.036935149004726]
グラフニューラルネットワーク(GNN)は、グラフ構造を理解するために進化してきた。
堅牢性を高めるために、自己教師付き学習(SSL)はデータ拡張の重要なツールとなっている。
本研究は,ゼロショット学習環境におけるグラフモデルの一般化を推し進めることによって,この問題に対処する。
論文 参考訳(メタデータ) (2023-10-19T06:17:46Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Graph-ToolFormer: To Empower LLMs with Graph Reasoning Ability via
Prompt Augmented by ChatGPT [10.879701971582502]
我々は,複雑なグラフデータに対する推論能力を備えた大規模言語モデル(LLM)の開発を目指している。
最新のChatGPTおよびToolformerモデルに触発された我々は、外部グラフ推論APIツールを使用するために、ChatGPTによって強化されたプロンプトでLLM自体を教えるためのGraph-ToolFormerフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-10T05:25:54Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。