論文の概要: A Tale of Two Graphs: Separating Knowledge Exploration from Outline Structure for Open-Ended Deep Research
- arxiv url: http://arxiv.org/abs/2602.13830v1
- Date: Sat, 14 Feb 2026 15:54:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.447347
- Title: A Tale of Two Graphs: Separating Knowledge Exploration from Outline Structure for Open-Ended Deep Research
- Title(参考訳): 2つのグラフの物語:オープンエンドディープリサーチのためのアウトライン構造からの知識探索の分離
- Authors: Zhuofan Shi, Ming Ma, Zekun Yao, Fangkai Yang, Jue Zhang, Dongge Han, Victor Rühle, Qingwei Lin, Saravan Rajmohan, Dongmei Zhang,
- Abstract要約: Open-Ended Deep Research (OEDR) は、LLMエージェントを短いQAを超えて長い水平方向に押し込み、証拠を反復的に探索し、接続し、構造化されたレポートに合成する。
既存のOEDRエージェントは、リニアサーチ-then-generate'の蓄積またはアウトライン中心の計画のいずれかに大きく従っている。
DualGraphメモリは、エージェントが何を知っているかと、その書き込み方法とを区別するアーキテクチャです。
- 参考スコア(独自算出の注目度): 44.372106508642844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-Ended Deep Research (OEDR) pushes LLM agents beyond short-form QA toward long-horizon workflows that iteratively search, connect, and synthesize evidence into structured reports. However, existing OEDR agents largely follow either linear ``search-then-generate'' accumulation or outline-centric planning. The former suffers from lost-in-the-middle failures as evidence grows, while the latter relies on the LLM to implicitly infer knowledge gaps from the outline alone, providing weak supervision for identifying missing relations and triggering targeted exploration. We present DualGraph memory, an architecture that separates what the agent knows from how it writes. DualGraph maintains two co-evolving graphs: an Outline Graph (OG), and a Knowledge Graph (KG), a semantic memory that stores fine-grained knowledge units, including core entities, concepts, and their relations. By analyzing the KG topology together with structural signals from the OG, DualGraph generates targeted search queries, enabling more efficient and comprehensive iterative knowledge-driven exploration and refinement. Across DeepResearch Bench, DeepResearchGym, and DeepConsult, DualGraph consistently outperforms state-of-the-art baselines in report depth, breadth, and factual grounding; for example, it reaches a 53.08 RACE score on DeepResearch Bench with GPT-5. Moreover, ablation studies confirm the central role of the dual-graph design.
- Abstract(参考訳): Open-Ended Deep Research (OEDR)は、LLMエージェントを短期QAを超えて長期水平ワークフローにプッシュし、証拠を反復的に検索し、接続し、構造化されたレポートに合成する。
しかし、既存のOEDRエージェントは、主に線状‘search-then-generate’の蓄積またはアウトライン中心の計画に従う。
前者は証拠が増大するにつれて中途半端な失敗に悩まされ、後者はLLMに頼ってアウトラインから知識ギャップを暗黙的に推測し、行方不明な関係の特定と対象の探索の引き金となる。
DualGraphメモリは、エージェントが何を知っているかと、その書き込み方法とを区別するアーキテクチャです。
DualGraphは、アウトライングラフ(OG)と知識グラフ(KG)の2つの共進化グラフを維持している。
OGの構造信号とともにKGトポロジを解析することにより、DualGraphはターゲット検索クエリを生成し、より効率的で包括的な反復的知識駆動探索と洗練を可能にする。
DeepResearch Bench、DeepResearchGym、DeepConsultの他、DualGraphはレポートの深さ、幅、実際のグラウンドにおいて常に最先端のベースラインを上回り、例えば、GPT-5でDeepResearch Benchで53.08 RACEスコアに達した。
さらに、アブレーション研究は二重グラフ設計の中心的な役割を裏付けるものである。
関連論文リスト
- ProGraph-R1: Progress-aware Reinforcement Learning for Graph Retrieval Augmented Generation [37.11787010202267]
ProGraph-R1は,グラフベースの検索と多段階推論のためのプログレッシブ・エージェント・フレームワークである。
ProGraph-R1は、意味的関連性とグラフ接続性について共同で検討する構造対応のハイパーグラフ検索機構を導入している。
マルチホップ質問応答ベンチマークの実験では、ProGraph-R1は既存のGraphRAG法よりも推論精度と生成品質を一貫して改善している。
論文 参考訳(メタデータ) (2026-01-25T08:58:44Z) - Graph-Anchored Knowledge Indexing for Retrieval-Augmented Generation [53.42323544075114]
グラフアンコール型知識インデックス手法であるGraphAnchorを提案する。
4つのマルチホップ質問応答ベンチマークの実験では、GraphAnchorの有効性が示されている。
論文 参考訳(メタデータ) (2026-01-23T05:41:05Z) - GraphSearch: An Agentic Deep Searching Workflow for Graph Retrieval-Augmented Generation [35.65907480060404]
textscGraphSearchは、GraphRAGの二重チャネル検索を備えた新しいエージェントディープ検索ワークフローである。
textscGraphSearchは、従来の戦略よりも解答精度と生成品質を一貫して改善する。
論文 参考訳(メタデータ) (2025-09-26T07:45:56Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。