論文の概要: Graph-O1 : Monte Carlo Tree Search with Reinforcement Learning for Text-Attributed Graph Reasoning
- arxiv url: http://arxiv.org/abs/2512.17912v1
- Date: Wed, 26 Nov 2025 21:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 00:37:57.040186
- Title: Graph-O1 : Monte Carlo Tree Search with Reinforcement Learning for Text-Attributed Graph Reasoning
- Title(参考訳): Graph-O1 : テキスト分散グラフ推論のための強化学習によるモンテカルロ木探索
- Authors: Lihui Liu,
- Abstract要約: Graph-O1はエージェント的なGraphRAGフレームワークで、LCMがグラフ上で段階的にインタラクティブな推論を実行できる。
提案手法はモンテカルロ木探索(MCTS)とエンドツーエンドの強化学習を統合し,最も情報に富む部分グラフの探索と検索を可能にする。
- 参考スコア(独自算出の注目度): 7.792321858331646
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: ChatGPT said: Text-attributed graphs, where nodes and edges contain rich textual information, are widely used across diverse domains. A central challenge in this setting is question answering, which requires jointly leveraging unstructured text and the structured relational signals within the graph. Although Large Language Models (LLMs) have made significant advances in natural language understanding, their direct use for reasoning over text-attributed graphs remains limited. Retrieval-augmented generation methods that operate purely on text often treat passages as isolated units, ignoring the interconnected structure of the graph. Conversely, graph-based RAG methods that serialize large subgraphs into long textual sequences quickly become infeasible due to LLM context-length constraints, resulting in fragmented reasoning and degraded accuracy. To overcome these limitations, we introduce Graph-O1, an agentic GraphRAG framework that enables LLMs to conduct stepwise, interactive reasoning over graphs. Our approach integrates Monte Carlo Tree Search (MCTS) with end-to-end reinforcement learning, allowing the model to selectively explore and retrieve only the most informative subgraph components. The reasoning procedure is framed as a multi-turn interaction between the agent and the graph environment, and the agent is trained through a unified reward mechanism. Extensive experiments across multiple LLM backbones demonstrate that Graph-O1 consistently surpasses state-of-the-art baselines, producing answers that are more accurate, reliable, and interpretable.
- Abstract(参考訳): ノードとエッジがリッチなテキスト情報を含むテキスト分散グラフは、さまざまなドメインで広く使われています。
この設定における中心的な課題は質問応答であり、グラフ内の非構造化テキストと構造化リレーショナル信号の併用が必要である。
大規模言語モデル (LLMs) は自然言語理解において大きな進歩を遂げてきたが, テキスト対応グラフに対する推論への直接的利用は依然として限られている。
テキスト上で純粋に動作する検索拡張生成法は、グラフの相互接続構造を無視して、通路を独立した単位として扱うことが多い。
逆に、大きなサブグラフを長いテキストシーケンスにシリアライズするグラフベースのRAG法は、LLMのコンテキスト長制約によってすぐに実現不可能となり、断片化された推論と劣化した精度をもたらす。
これらの制限を克服するために,LLMがグラフ上で段階的にインタラクティブな推論を行うことを可能にするエージェントグラフRAGフレームワークであるGraph-O1を導入する。
提案手法はモンテカルロ木探索(MCTS)とエンドツーエンドの強化学習を統合し,最も情報に富む部分グラフのみを選択的に探索・検索する。
推論手順は、エージェントとグラフ環境とのマルチターン相互作用としてフレーム化され、エージェントは統一的な報酬機構によって訓練される。
複数のLLMバックボーンにわたる大規模な実験により、Graph-O1は最先端のベースラインを一貫して超え、より正確で信頼性があり、解釈可能な回答を生み出している。
関連論文リスト
- GRAG: Graph Retrieval-Augmented Generation [14.98084919101233]
Graph Retrieval-Augmented Generation (GRAG)は、テキストサブグラフを取得する際の根本的な課題に取り組む。
本稿では,線形時間で最適な部分グラフ構造を検索する新たな分割・対数戦略を提案する。
グラフ推論ベンチマーク実験により, GRAG法が現在のRAG法より大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-05-26T10:11:40Z) - Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs [60.71360240206726]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて幻覚に悩まされる。
既存の研究は、外部知識コーパスから取得した個々のテキスト単位でLLMを拡張することを提案する。
本稿では,グラフを反復的に推論することで,LLMをグラフで拡張するためのGraph Chain-of-thinkt (Graph-CoT) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T15:41:53Z) - G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
一般のテキストグラフに対する最初の検索拡張生成(RAG)手法を提案する。
G-Retrieverは、このタスクをSteiner Tree最適化問題として定式化し、グラフ上でRAGを実行する。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。