論文の概要: GraphScout: Empowering Large Language Models with Intrinsic Exploration Ability for Agentic Graph Reasoning
- arxiv url: http://arxiv.org/abs/2603.01410v1
- Date: Mon, 02 Mar 2026 03:25:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.666538
- Title: GraphScout: Empowering Large Language Models with Intrinsic Exploration Ability for Agentic Graph Reasoning
- Title(参考訳): GraphScout: エージェントグラフ推論に固有の探索機能を備えた大規模言語モデルを実現する
- Authors: Yuchen Ying, Weiqi Jiang, Tongya Zheng, Yu Wang, Shunyu Liu, Kaixuan Chen, Mingli Song,
- Abstract要約: 近年のGraph-based Retrieval-Augmented Generation (GraphRAG)法では,知識グラフと大規模言語モデル (LLM) の反復的相互作用を導入し,推論能力を向上させる。
より柔軟なグラフ探索ツールを備えたトレーニング中心のエージェントグラフ推論フレームワークであるGraphScoutを提案する。
- 参考スコア(独自算出の注目度): 46.699075133532595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs provide structured and reliable information for many real-world applications, motivating increasing interest in combining large language models (LLMs) with graph-based retrieval to improve factual grounding. Recent Graph-based Retrieval-Augmented Generation (GraphRAG) methods therefore introduce iterative interaction between LLMs and knowledge graphs to enhance reasoning capability. However, existing approaches typically depend on manually designed guidance and interact with knowledge graphs through a limited set of predefined tools, which substantially constrains graph exploration. To address these limitations, we propose GraphScout, a training-centric agentic graph reasoning framework equipped with more flexible graph exploration tools. GraphScout enables models to autonomously interact with knowledge graphs to synthesize structured training data which are then used to post-train LLMs, thereby internalizing agentic graph reasoning ability without laborious manual annotation or task curation. Extensive experiments across five knowledge-graph domains show that a small model (e.g., Qwen3-4B) augmented with GraphScout outperforms baseline methods built on leading LLMs (e.g., Qwen-Max) by an average of 16.7\% while requiring significantly fewer inference tokens. Moreover, GraphScout exhibits robust cross-domain transfer performance. Our code will be made publicly available~\footnote{https://github.com/Ying-Yuchen/_GraphScout_}.
- Abstract(参考訳): 知識グラフは、多くの現実世界のアプリケーションに対して構造化され信頼性の高い情報を提供し、グラフベースの検索と大きな言語モデル(LLM)を組み合わせることへの関心の高まりを動機としている。
グラフベース検索拡張生成法(GraphRAG)では,LLMと知識グラフの反復的相互作用を導入し,推論能力を向上させる。
しかし、既存のアプローチは通常、手動で設計したガイダンスに依存し、事前に定義されたツールの限られたセットを通して知識グラフと対話する。
より柔軟なグラフ探索ツールを備えたトレーニング中心のエージェントグラフ推論フレームワークであるGraphScoutを提案する。
GraphScoutは、モデルが知識グラフと自律的に対話し、構造化されたトレーニングデータを合成し、トレーニング後LSMに使用することにより、面倒な手作業のアノテーションやタスクキュレーションを使わずにエージェントグラフ推論能力を内部化する。
5つの知識グラフ領域にわたる大規模な実験により、GraphScoutで強化された小さなモデル(例:Qwen3-4B)は、平均16.7\%の推論トークンを必要としながら、主要なLCM(例:Qwen-Max)上に構築されたベースラインメソッドよりも優れていた。
さらに、GraphScoutは、堅牢なクロスドメイン転送性能を示す。
私たちのコードは ~\footnote{https://github.com/Ying-Yuchen/_GraphScout_} で公開されます。
関連論文リスト
- G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - GraphCogent: Mitigating LLMs' Working Memory Constraints via Multi-Agent Collaboration in Complex Graph Understanding [13.356521655409422]
大規模言語モデル(LLM)は、小規模なグラフ推論タスクでは有望な性能を示すが、複雑なクエリで現実のグラフを扱うと失敗する。
グラフ推論を特殊な認知プロセス(センス、バッファ、実行)に分解する協調エージェントフレームワークであるGraphCogentを提案する。
論文 参考訳(メタデータ) (2025-08-17T14:28:38Z) - G1: Teaching LLMs to Reason on Graphs with Reinforcement Learning [58.73279333365234]
合成グラフ理論タスクにおける強化学習(RL)はグラフ推論能力を著しく拡張することができる。
RL on ErdosでG1はグラフ推論の大幅な改善を実現し、微調整された3BモデルはQwen2.5-72B-Instruct(24倍)よりも優れています。
我々の研究は、グラフ理論上のRLでLLMを微調整することで、強力なグラフ推論器を構築するための効率的でスケーラブルな経路を提供する。
論文 参考訳(メタデータ) (2025-05-24T04:33:41Z) - Query-Aware Learnable Graph Pooling Tokens as Prompt for Large Language Models [3.9489815622117566]
Learnable Graph Pooling Token (LGPT)は、フレキシブルで効率的なグラフ表現を可能にする。
提案手法は,大規模言語モデルを訓練することなく,GraphQAベンチマークで4.13%の性能向上を実現している。
論文 参考訳(メタデータ) (2025-01-29T10:35:41Z) - An Automatic Graph Construction Framework based on Large Language Models for Recommendation [49.51799417575638]
本稿では,大規模言語モデルに基づく自動グラフ構築フレームワークであるAutoGraphを紹介する。
LLMはユーザ好みとアイテムの知識を推論し、セマンティックベクターとして符号化する。
潜在因子は、ユーザ/イテムノードをリンクする余分なノードとして組み込まれ、結果として、深いグローバルビューセマンティクスを持つグラフとなる。
論文 参考訳(メタデータ) (2024-12-24T07:51:29Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [70.03602551880526]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - GraphInstruct: Empowering Large Language Models with Graph Understanding and Reasoning Capability [47.69392503009922]
本稿では,21の古典的グラフ推論タスクを包括的に含むGraphInstructというベンチマークを提案する。
GraphInstructをベースとして,グラフ理解能力の顕著さを示す効率的な命令チューニングによるGraphrを開発した。
マルチステップグラフ推論機能を備えたLLMをさらに促進するために,ラベルマスクトレーニング戦略を提案し,Graphr+を構築する。
論文 参考訳(メタデータ) (2024-03-07T13:36:08Z) - Graph-oriented Instruction Tuning of Large Language Models for Generic Graph Mining [36.366468326267004]
MuseGraphはタスクとデータセットをまたいだグラフマイニングのためのフレームワークである。
グラフニューラルネットワーク(GNN)と大規模言語モデル(LLM)の長所をシームレスに統合する。
実験の結果,5つのグラフタスクと10のデータセットにおいて,大幅な改善が示された。
論文 参考訳(メタデータ) (2024-03-02T09:27:32Z) - GraphGPT: Graph Instruction Tuning for Large Language Models [27.036935149004726]
グラフニューラルネットワーク(GNN)は、グラフ構造を理解するために進化してきた。
堅牢性を高めるために、自己教師付き学習(SSL)はデータ拡張の重要なツールとなっている。
本研究は,ゼロショット学習環境におけるグラフモデルの一般化を推し進めることによって,この問題に対処する。
論文 参考訳(メタデータ) (2023-10-19T06:17:46Z) - Graph-ToolFormer: To Empower LLMs with Graph Reasoning Ability via
Prompt Augmented by ChatGPT [10.879701971582502]
我々は,複雑なグラフデータに対する推論能力を備えた大規模言語モデル(LLM)の開発を目指している。
最新のChatGPTおよびToolformerモデルに触発された我々は、外部グラフ推論APIツールを使用するために、ChatGPTによって強化されたプロンプトでLLM自体を教えるためのGraph-ToolFormerフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-10T05:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。