論文の概要: ReSum: Unlocking Long-Horizon Search Intelligence via Context Summarization
- arxiv url: http://arxiv.org/abs/2509.13313v1
- Date: Tue, 16 Sep 2025 17:57:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.222729
- Title: ReSum: Unlocking Long-Horizon Search Intelligence via Context Summarization
- Title(参考訳): ReSum:コンテキスト要約による長距離検索インテリジェンスのアンロック
- Authors: Xixi Wu, Kuan Li, Yida Zhao, Liwen Zhang, Litu Ou, Huifeng Yin, Zhongwang Zhang, Yong Jiang, Pengjun Xie, Fei Huang, Minhao Cheng, Shuai Wang, Hong Cheng, Jingren Zhou,
- Abstract要約: 本稿では,周期的文脈要約による不確定探索を可能にするパラダイムであるReSumを紹介する。
ReSumは、増大する相互作用履歴をコンパクトな推論状態に変換し、コンテキスト制約をバイパスしながら事前発見の認識を維持する。
本稿では,ReSum-GRPOとセグメンテーション・トラジェクトリ・トレーニングを組み合わせたGRPOを提案する。
- 参考スコア(独自算出の注目度): 87.36544453712077
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Large Language Model (LLM)-based web agents demonstrate strong performance on knowledge-intensive tasks but are hindered by context window limitations in paradigms like ReAct. Complex queries involving multiple entities, intertwined relationships, and high uncertainty demand extensive search cycles that rapidly exhaust context budgets before reaching complete solutions. To overcome this challenge, we introduce ReSum, a novel paradigm that enables indefinite exploration through periodic context summarization. ReSum converts growing interaction histories into compact reasoning states, maintaining awareness of prior discoveries while bypassing context constraints. For paradigm adaptation, we propose ReSum-GRPO, integrating GRPO with segmented trajectory training and advantage broadcasting to familiarize agents with summary-conditioned reasoning. Extensive experiments on web agents of varying scales across three benchmarks demonstrate that ReSum delivers an average absolute improvement of 4.5\% over ReAct, with further gains of up to 8.2\% following ReSum-GRPO training. Notably, with only 1K training samples, our WebResummer-30B (a ReSum-GRPO-trained version of WebSailor-30B) achieves 33.3\% Pass@1 on BrowseComp-zh and 18.3\% on BrowseComp-en, surpassing existing open-source web agents.
- Abstract(参考訳): LLM(Large Language Model)ベースのWebエージェントは、知識集約的なタスクにおいて強力なパフォーマンスを示すが、ReActのようなパラダイムのコンテキストウィンドウ制限によって妨げられる。
複数のエンティティ、絡み合った関係、高い不確実性を含む複雑なクエリは、完全なソリューションに到達する前に、コンテキスト予算を迅速に消費する広範囲な検索サイクルを要求する。
この課題を克服するために、周期的文脈要約による不確定探索を可能にする新しいパラダイムであるReSumを紹介する。
ReSumは、成長する相互作用履歴をコンパクトな推論状態に変換し、コンテキスト制約をバイパスしながら事前発見の認識を維持する。
本稿では,ReSum-GRPOとセグメンテーション・トラジェクトリ・トレーニングを組み合わせたGRPOを提案する。
3つのベンチマークで異なるスケールのWebエージェントに関する大規模な実験は、ReSumがReAct上で4.5\%の平均的な絶対的な改善を実現し、ReSum-GRPOトレーニング後に最大8.2\%まで向上したことを示している。
特に1Kのトレーニングサンプルだけで、WebResummer-30B(WebSailor-30BのReSum-GRPOでトレーニングされたバージョン)は、BrowseComp-zhで33.3\%、BrowseComp-enで18.3\%を獲得し、既存のオープンソースWebエージェントを上回っています。
関連論文リスト
- Reasoning-enhanced Query Understanding through Decomposition and Interpretation [130.19204432111277]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Towards Open-World Retrieval-Augmented Generation on Knowledge Graph: A Multi-Agent Collaboration Framework [21.896955284099334]
大きな言語モデル(LLM)は、言語理解と推論において強力な能力を示している。
Retrieval-Augmented Generation (RAG)は、外部知識ソースを組み込むことによって、この制限に対処する。
AnchorRAGは,オープンワールドRAGのための,事前定義されたアンカーエンティティを持たない新しいマルチエージェント協調フレームワークである。
論文 参考訳(メタデータ) (2025-09-01T08:26:12Z) - REFRAG: Rethinking RAG based Decoding [67.4862300145604]
REFRAGは効率的なデコードフレームワークで、RAGアプリケーションの遅延を圧縮し、感知し、拡張し、改善する。
本稿では,RAG,マルチターン会話,長期文書要約など,多種多様な長文タスクを対象としたREFRAGの厳密な検証を行う。
論文 参考訳(メタデータ) (2025-09-01T03:31:44Z) - UniversalRAG: Retrieval-Augmented Generation over Corpora of Diverse Modalities and Granularities [53.76854299076118]
UniversalRAGは異種情報源からの知識を多様さと粒度で検索・統合するための新しいRAGフレームワークである。
本稿では,最も適切なモダリティ固有コーパスを動的に識別し,その内部でターゲット検索を行うモダリティ対応ルーティング機構を提案する。
マルチモーダル性にまたがる8つのベンチマークでUniversalRAGを検証する。
論文 参考訳(メタデータ) (2025-04-29T13:18:58Z) - A New Query Expansion Approach via Agent-Mediated Dialogic Inquiry [10.76224743599566]
本稿では,3つの専門的役割を含む対話的調査を行うエージェント媒介型対話型フレームワークAMDを提案する。
マルチエージェントプロセスを活用することで、AMDは質問やフィードバックの洗練を通じて、よりリッチなクエリ表現を効果的に構築する。
論文 参考訳(メタデータ) (2025-02-12T16:39:06Z) - Retrieval-Augmented Dynamic Prompt Tuning for Incomplete Multimodal Learning [27.867369806400834]
本稿では,Retrieval-AuGmented Dynamic Prompt TuningフレームワークであるRAGPTを提案する。
RAGPTは、(I)マルチチャネルレトリバー、(II)モダリティ生成器、(III)コンテキスト認識プロンプトの3つのモジュールから構成される。
3つの実世界のデータセットで実施された実験によると、RAGPTは不完全なモダリティ問題に対処する際の全ての競争ベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-01-02T07:39:48Z) - RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation [42.82192656794179]
大きな言語モデル(LLM)は優れた能力を示すが、不正確なあるいは幻覚反応を引き起こす傾向がある。
この制限は、膨大な事前トレーニングデータセットに依存することに起因するため、目に見えないシナリオでのエラーの影響を受けやすい。
Retrieval-Augmented Generation (RAG) は、外部の関連文書を応答生成プロセスに組み込むことによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-03-31T08:58:54Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。