論文の概要: RE-TRAC: REcursive TRAjectory Compression for Deep Search Agents
- arxiv url: http://arxiv.org/abs/2602.02486v1
- Date: Mon, 02 Feb 2026 18:58:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.390386
- Title: RE-TRAC: REcursive TRAjectory Compression for Deep Search Agents
- Title(参考訳): RE-TRAC:ディープサーチエージェントのための再帰的軌道圧縮
- Authors: Jialiang Zhu, Gongrui Zhang, Xiaolong Ma, Lin Xu, Miaosen Zhang, Ruiqi Yang, Song Wang, Kai Qiu, Zhirong Wu, Qi Dai, Ruichun Ma, Bei Liu, Yifan Yang, Chong Luo, Zhengyuan Yang, Linjie Li, Lijuan Wang, Weizhu Chen, Xin Geng, Baining Guo,
- Abstract要約: Re-TRACはクロス軌道探索を行うエージェントフレームワークである。
Re-TRAC は BrowseComp とフロンティア LLM で連続して ReAct を 15-20% 上回っていることを示す。
- 参考スコア(独自算出の注目度): 144.5598958575922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-based deep research agents are largely built on the ReAct framework. This linear design makes it difficult to revisit earlier states, branch into alternative search directions, or maintain global awareness under long contexts, often leading to local optima, redundant exploration, and inefficient search. We propose Re-TRAC, an agentic framework that performs cross-trajectory exploration by generating a structured state representation after each trajectory to summarize evidence, uncertainties, failures, and future plans, and conditioning subsequent trajectories on this state representation. This enables iterative reflection and globally informed planning, reframing research as a progressive process. Empirical results show that Re-TRAC consistently outperforms ReAct by 15-20% on BrowseComp with frontier LLMs. For smaller models, we introduce Re-TRAC-aware supervised fine-tuning, achieving state-of-the-art performance at comparable scales. Notably, Re-TRAC shows a monotonic reduction in tool calls and token usage across rounds, indicating progressively targeted exploration driven by cross-trajectory reflection rather than redundant search.
- Abstract(参考訳): LLMベースのディープリサーチエージェントは、主にReActフレームワーク上に構築されている。
この線形設計により、以前の状態を再検討したり、代替の探索方向に分岐したり、長いコンテキスト下でグローバルな認識を維持することが難しくなり、しばしば局所的な最適性、冗長な探索、非効率的な探索につながる。
本稿では,各軌道の後に構造化された状態表現を生成して,証拠,不確実性,障害,将来の計画を要約し,その後の状態表現を条件付けることによって,クロストラジェクティブ探索を行うエージェントフレームワークであるRe-TRACを提案する。
これにより、反復的なリフレクションとグローバルなインフォメーションプランニングが可能になり、研究を進歩的なプロセスとして再フレーミングする。
Re-TRAC は BrowseComp とフロンティア LLM で連続して ReAct を 15-20% 上回っている。
より小型のモデルでは、Re-TRAC対応の微調整を導入し、同等のスケールで最先端の性能を実現する。
特にRe-TRACは、ツールコールの単調な削減とラウンド間のトークン使用率を示す。
関連論文リスト
- Thinking Forward and Backward: Multi-Objective Reinforcement Learning for Retrieval-Augmented Reasoning [137.33138614095435]
Retrieval-augmented Generation (RAG) は、大規模言語モデルにおける幻覚の緩和に有効であることが証明されている。
近年、検索に基づく対話をRAGに組み込んで、リアルタイム検索による反復推論を可能にしている。
提案するBi-RARは,各中間ステップを前方方向と後方方向の両方で共同で評価する,新たな検索拡張推論フレームワークである。
論文 参考訳(メタデータ) (2025-11-12T08:29:39Z) - ReSeek: A Self-Correcting Framework for Search Agents with Instructive Rewards [18.92867715736209]
本稿では,検索エージェントを訓練するための自己修正フレームワークであるReSeekを提案する。
本フレームワークでは,誤探索経路からエージェントを動的に識別・復元する自己補正機構を導入している。
既存のデータセットにおけるデータ汚染のリスクを軽減するため、FictionalHotを導入する。
論文 参考訳(メタデータ) (2025-10-01T06:44:28Z) - Chain-of-Retrieval Augmented Generation [91.02950964802454]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。