論文の概要: GraphDancer: Training LLMs to Explore and Reason over Graphs via Curriculum Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2602.02518v1
- Date: Sat, 24 Jan 2026 02:44:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.432217
- Title: GraphDancer: Training LLMs to Explore and Reason over Graphs via Curriculum Reinforcement Learning
- Title(参考訳): GraphDancer: カリキュラム強化学習によるグラフの探索と推論のためのLLMのトレーニング
- Authors: Yuyang Bai, Zhuofeng Li, Ping Nie, Jianwen Xie, Yu Zhang,
- Abstract要約: 大規模な言語モデルは、事実性を改善するために外部知識に依存している。
多くの実世界の知識ソースは、平文ではなく異種グラフとして整理されている。
提案するGraphDancerは,LLMに推論と関数の実行をインターリーブしてグラフをナビゲートするフレームワークである。
- 参考スコア(独自算出の注目度): 19.78190825157365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) increasingly rely on external knowledge to improve factuality, yet many real-world knowledge sources are organized as heterogeneous graphs rather than plain text. Reasoning over such graph-structured knowledge poses two key challenges: (1) navigating structured, schema-defined relations requires precise function calls rather than similarity-based retrieval, and (2) answering complex questions often demands multi-hop evidence aggregation through iterative information seeking. We propose GraphDancer, a reinforcement learning (RL) framework that teaches LLMs to navigate graphs by interleaving reasoning and function execution. To make RL effective for moderate-sized LLMs, we introduce a graph-aware curriculum that schedules training by the structural complexity of information-seeking trajectories using an easy-to-hard biased sampler. We evaluate GraphDancer on a multi-domain benchmark by training on one domain only and testing on unseen domains and out-of-distribution question types. Despite using only a 3B backbone, GraphDancer outperforms baselines equipped with either a 14B backbone or GPT-4o-mini, demonstrating robust cross-domain generalization of graph exploration and reasoning skills. Our code and models can be found at https://yuyangbai.com/graphdancer/ .
- Abstract(参考訳): 大規模言語モデル(LLM)は、事実性を改善するために外部知識に依存していることが多いが、現実の知識源の多くは、平易なテキストではなく異質なグラフとして整理されている。
このようなグラフ構造化知識に対する推論は、(1)構造化されたスキーマ定義された関係をナビゲートするには、類似性に基づく検索よりも正確な関数呼び出しが必要であり、(2)複雑な質問に答えるには、反復的な情報探索を通じて、しばしばマルチホップエビデンスアグリゲーションを要求する。
我々は,LLMに推論と関数の実行をインターリーブすることによってグラフをナビゲートするグラフ学習(RL)フレームワークであるGraphDancerを提案する。
中程度のLLMに対してRLを効果的にするために,情報探索軌道の構造的複雑さによるトレーニングを,簡単な偏りのサンプリング器を用いてスケジュールするグラフ対応カリキュラムを導入する。
一つのドメインのみをトレーニングし、未確認のドメインとアウト・オブ・ディストリビューションの質問タイプをテストすることで、マルチドメインのベンチマークでGraphDancerを評価する。
3Bバックボーンのみを使用するにもかかわらず、GraphDancerは14BバックボーンまたはGPT-4o-miniを備えたベースラインよりも優れており、グラフ探索と推論スキルの堅牢なクロスドメイン一般化を実証している。
私たちのコードとモデルはhttps://yuyangbai.com/graphdancer/ で確認できます。
関連論文リスト
- ProGraph-R1: Progress-aware Reinforcement Learning for Graph Retrieval Augmented Generation [37.11787010202267]
ProGraph-R1は,グラフベースの検索と多段階推論のためのプログレッシブ・エージェント・フレームワークである。
ProGraph-R1は、意味的関連性とグラフ接続性について共同で検討する構造対応のハイパーグラフ検索機構を導入している。
マルチホップ質問応答ベンチマークの実験では、ProGraph-R1は既存のGraphRAG法よりも推論精度と生成品質を一貫して改善している。
論文 参考訳(メタデータ) (2026-01-25T08:58:44Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - G1: Teaching LLMs to Reason on Graphs with Reinforcement Learning [58.73279333365234]
合成グラフ理論タスクにおける強化学習(RL)はグラフ推論能力を著しく拡張することができる。
RL on ErdosでG1はグラフ推論の大幅な改善を実現し、微調整された3BモデルはQwen2.5-72B-Instruct(24倍)よりも優れています。
我々の研究は、グラフ理論上のRLでLLMを微調整することで、強力なグラフ推論器を構築するための効率的でスケーラブルな経路を提供する。
論文 参考訳(メタデータ) (2025-05-24T04:33:41Z) - How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - GraphGPT: Graph Instruction Tuning for Large Language Models [27.036935149004726]
グラフニューラルネットワーク(GNN)は、グラフ構造を理解するために進化してきた。
堅牢性を高めるために、自己教師付き学習(SSL)はデータ拡張の重要なツールとなっている。
本研究は,ゼロショット学習環境におけるグラフモデルの一般化を推し進めることによって,この問題に対処する。
論文 参考訳(メタデータ) (2023-10-19T06:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。