論文の概要: Graph-O1 : Monte Carlo Tree Search with Reinforcement Learning for Text-Attributed Graph Reasoning
- arxiv url: http://arxiv.org/abs/2512.17912v1
- Date: Wed, 26 Nov 2025 21:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 00:37:57.040186
- Title: Graph-O1 : Monte Carlo Tree Search with Reinforcement Learning for Text-Attributed Graph Reasoning
- Title(参考訳): Graph-O1 : テキスト分散グラフ推論のための強化学習によるモンテカルロ木探索
- Authors: Lihui Liu,
- Abstract要約: Graph-O1はエージェント的なGraphRAGフレームワークで、LCMがグラフ上で段階的にインタラクティブな推論を実行できる。
提案手法はモンテカルロ木探索(MCTS)とエンドツーエンドの強化学習を統合し,最も情報に富む部分グラフの探索と検索を可能にする。
- 参考スコア(独自算出の注目度): 7.792321858331646
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: ChatGPT said: Text-attributed graphs, where nodes and edges contain rich textual information, are widely used across diverse domains. A central challenge in this setting is question answering, which requires jointly leveraging unstructured text and the structured relational signals within the graph. Although Large Language Models (LLMs) have made significant advances in natural language understanding, their direct use for reasoning over text-attributed graphs remains limited. Retrieval-augmented generation methods that operate purely on text often treat passages as isolated units, ignoring the interconnected structure of the graph. Conversely, graph-based RAG methods that serialize large subgraphs into long textual sequences quickly become infeasible due to LLM context-length constraints, resulting in fragmented reasoning and degraded accuracy. To overcome these limitations, we introduce Graph-O1, an agentic GraphRAG framework that enables LLMs to conduct stepwise, interactive reasoning over graphs. Our approach integrates Monte Carlo Tree Search (MCTS) with end-to-end reinforcement learning, allowing the model to selectively explore and retrieve only the most informative subgraph components. The reasoning procedure is framed as a multi-turn interaction between the agent and the graph environment, and the agent is trained through a unified reward mechanism. Extensive experiments across multiple LLM backbones demonstrate that Graph-O1 consistently surpasses state-of-the-art baselines, producing answers that are more accurate, reliable, and interpretable.
- Abstract(参考訳): ノードとエッジがリッチなテキスト情報を含むテキスト分散グラフは、さまざまなドメインで広く使われています。
この設定における中心的な課題は質問応答であり、グラフ内の非構造化テキストと構造化リレーショナル信号の併用が必要である。
大規模言語モデル (LLMs) は自然言語理解において大きな進歩を遂げてきたが, テキスト対応グラフに対する推論への直接的利用は依然として限られている。
テキスト上で純粋に動作する検索拡張生成法は、グラフの相互接続構造を無視して、通路を独立した単位として扱うことが多い。
逆に、大きなサブグラフを長いテキストシーケンスにシリアライズするグラフベースのRAG法は、LLMのコンテキスト長制約によってすぐに実現不可能となり、断片化された推論と劣化した精度をもたらす。
これらの制限を克服するために,LLMがグラフ上で段階的にインタラクティブな推論を行うことを可能にするエージェントグラフRAGフレームワークであるGraph-O1を導入する。
提案手法はモンテカルロ木探索(MCTS)とエンドツーエンドの強化学習を統合し,最も情報に富む部分グラフのみを選択的に探索・検索する。
推論手順は、エージェントとグラフ環境とのマルチターン相互作用としてフレーム化され、エージェントは統一的な報酬機構によって訓練される。
複数のLLMバックボーンにわたる大規模な実験により、Graph-O1は最先端のベースラインを一貫して超え、より正確で信頼性があり、解釈可能な回答を生み出している。
関連論文リスト
- Toward Graph-Tokenizing Large Language Models with Reconstructive Graph Instruction Tuning [17.712367049197212]
大きな言語モデル(LLM)がグラフをよりよく理解できるように、グラフデータを言語空間と整合させることが課題である。
GTokenLLMは複雑な構造と長いテキストをグラフトークンシーケンスにエンコードし、言語命令のチューニングを通じてテキストトークンと整列する。
最初の成功にもかかわらず、我々の情報理論分析により、既存のGTokenLLMは言語命令からのテキスト管理のみに依存していることが明らかとなった。
論文 参考訳(メタデータ) (2026-03-02T02:26:54Z) - ProGraph-R1: Progress-aware Reinforcement Learning for Graph Retrieval Augmented Generation [37.11787010202267]
ProGraph-R1は,グラフベースの検索と多段階推論のためのプログレッシブ・エージェント・フレームワークである。
ProGraph-R1は、意味的関連性とグラフ接続性について共同で検討する構造対応のハイパーグラフ検索機構を導入している。
マルチホップ質問応答ベンチマークの実験では、ProGraph-R1は既存のGraphRAG法よりも推論精度と生成品質を一貫して改善している。
論文 参考訳(メタデータ) (2026-01-25T08:58:44Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - DGP: A Dual-Granularity Prompting Framework for Fraud Detection with Graph-Enhanced LLMs [55.13817504780764]
実世界の不正検出アプリケーションは、しばしばテキストデータに富んだノード特徴とグラフ構造情報を共同で活用するグラフ学習技術の恩恵を受ける。
グラフ強化LSMは、グラフ情報をプロンプトに変換する、有望なグラフ学習アプローチとして登場します。
目的ノードの細粒度テキストの詳細を保存し,情報過負荷を軽減するDGPを提案する。
論文 参考訳(メタデータ) (2025-07-29T10:10:47Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - LLM as GNN: Graph Vocabulary Learning for Text-Attributed Graph Foundation Models [87.68057302738457]
Text-Attributed Graphs (TAG) は、現実のシナリオにおいてユビキタスである。
大規模言語モデル(LLMs)とグラフニューラルネットワーク(GNNs)をTAGsに統合する努力にもかかわらず、既存のアプローチは分離されたアーキテクチャに悩まされている。
本稿では,グラフ語彙学習に基づくTAGのための汎用GFMであるPromptGFMを提案する。
論文 参考訳(メタデータ) (2025-03-05T09:45:22Z) - GRAG: Graph Retrieval-Augmented Generation [14.98084919101233]
Graph Retrieval-Augmented Generation (GRAG)は、テキストサブグラフを取得する際の根本的な課題に取り組む。
本稿では,線形時間で最適な部分グラフ構造を検索する新たな分割・対数戦略を提案する。
グラフ推論ベンチマーク実験により, GRAG法が現在のRAG法より大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-05-26T10:11:40Z) - Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs [60.71360240206726]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて幻覚に悩まされる。
既存の研究は、外部知識コーパスから取得した個々のテキスト単位でLLMを拡張することを提案する。
本稿では,グラフを反復的に推論することで,LLMをグラフで拡張するためのGraph Chain-of-thinkt (Graph-CoT) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T15:41:53Z) - G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
一般のテキストグラフに対する最初の検索拡張生成(RAG)手法を提案する。
G-Retrieverは、このタスクをSteiner Tree最適化問題として定式化し、グラフ上でRAGを実行する。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。