論文の概要: ARC: Active and Reflection-driven Context Management for Long-Horizon Information Seeking Agents
- arxiv url: http://arxiv.org/abs/2601.12030v1
- Date: Sat, 17 Jan 2026 12:17:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.426277
- Title: ARC: Active and Reflection-driven Context Management for Long-Horizon Information Seeking Agents
- Title(参考訳): ARC: 長期情報探索エージェントのためのアクティブ・リフレクション駆動型コンテキスト管理
- Authors: Yilun Yao, Shan Huang, Elsie Dai, Zhewen Tan, Zhenyu Duan, Shousheng Jia, Yanbing Jiang, Tong Yang,
- Abstract要約: ARCは、コンテキスト管理を体系的に定式化するフレームワークである。
実行中にコンテキストを動的内部推論状態として扱う。
パッシブ・コンテクスト・コンテクスト・コンプレックス・メソッドよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 9.76162701959422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models are increasingly deployed as research agents for deep search and long-horizon information seeking, yet their performance often degrades as interaction histories grow. This degradation, known as context rot, reflects a failure to maintain coherent and task-relevant internal states over extended reasoning horizons. Existing approaches primarily manage context through raw accumulation or passive summarization, treating it as a static artifact and allowing early errors or misplaced emphasis to persist. Motivated by this perspective, we propose ARC, which is the first framework to systematically formulate context management as an active, reflection-driven process that treats context as a dynamic internal reasoning state during execution. ARC operationalizes this view through reflection-driven monitoring and revision, allowing agents to actively reorganize their working context when misalignment or degradation is detected. Experiments on challenging long-horizon information-seeking benchmarks show that ARC consistently outperforms passive context compression methods, achieving up to an 11% absolute improvement in accuracy on BrowseComp-ZH with Qwen2.5-32B-Instruct.
- Abstract(参考訳): 大規模言語モデルは、深層探索と長期水平情報探索のための研究エージェントとしてますます展開されているが、相互作用履歴が大きくなるにつれて、その性能は劣化することが多い。
この劣化はコンテクスト・ロート ( context rot) と呼ばれ、拡張された推論の地平線上でのコヒーレントかつタスク関連の内部状態の維持に失敗したことを反映している。
既存のアプローチは主に、生の蓄積や受動的要約を通じてコンテキストを管理し、静的アーティファクトとして扱い、早期エラーや過度な強調を継続できるようにする。
この観点から、我々はARCを提案する。ARCは、実行中にコンテキストを動的内部推論状態として扱うアクティブなリフレクション駆動プロセスとして、コンテキスト管理を体系的に定式化する最初のフレームワークである。
ARCはリフレクション駆動による監視とリビジョンを通じてこのビューを運用し、ミスアライメントや劣化の検出時にエージェントが作業コンテキストを積極的に再編成する。
Qwen2.5-32B-InstructによるBrowseComp-ZHの精度は11%向上した。
関連論文リスト
- To Retrieve or To Think? An Agentic Approach for Context Evolution [18.882502245155624]
エージェント・コンテクスト・エボリューション(ACE)は、人間のメタ認知にインスパイアされたフレームワークであり、既存の知識で新たなエビデンスや理由を求めるかどうかを決定する。
ACEは中央のオーケストレータエージェントを雇い、多数決によって戦略的に意思決定を行う。
私たちの研究は、複雑で知識集約的なタスクのための文脈進化生成に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2026-01-13T17:25:57Z) - Context as a Tool: Context Management for Long-Horizon SWE-Agents [38.950807465620365]
我々は,エージェントの意思決定プロセスに統合された呼び出し可能なツールにコンテキストメンテナンスを高める新しいコンテキスト管理パラダイムであるCATを提案する。
CATは、安定なタスクセマンティクス、凝縮した長期記憶、高忠実な短期相互作用からなる構造化されたコンテキストワークスペースを形式化する。
我々は,SWE圧縮機が57.6%の解率に達し,ReActベースのエージェントと静的圧縮ベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2025-12-26T17:15:47Z) - Dynamic Context Selection for Retrieval-Augmented Generation: Mitigating Distractors and Positional Bias [1.7674345486888503]
Retrieval Augmented Generation (RAG)は,大規模コーパスから抽出した外部知識を組み込むことで,言語モデルの性能を向上させる。
標準的なRAGシステムは、関連する情報を見逃したり、意味的に無関係な経路を導入することができる固定トップk検索戦略に依存している。
本稿では,クエリ固有の情報要求に基づいて検索する文書の最適個数を動的に予測するコンテキストサイズ分類器を提案する。
論文 参考訳(メタデータ) (2025-12-16T11:30:40Z) - Thinking Forward and Backward: Multi-Objective Reinforcement Learning for Retrieval-Augmented Reasoning [137.33138614095435]
Retrieval-augmented Generation (RAG) は、大規模言語モデルにおける幻覚の緩和に有効であることが証明されている。
近年、検索に基づく対話をRAGに組み込んで、リアルタイム検索による反復推論を可能にしている。
提案するBi-RARは,各中間ステップを前方方向と後方方向の両方で共同で評価する,新たな検索拡張推論フレームワークである。
論文 参考訳(メタデータ) (2025-11-12T08:29:39Z) - Interact-RAG: Reason and Interact with the Corpus, Beyond Black-Box Retrieval [49.85856484781787]
本稿では,ILMエージェントを検索プロセスのアクティブマニピュレータに高める新しいパラダイムであるInteract-RAGを紹介する。
我々は、ゼロショット実行と相互作用軌跡の合成を可能にする推論強化ワークフローを開発する。
6つのベンチマーク実験により、Interact-RAGは他の高度な手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-10-31T15:48:43Z) - COMPASS: Enhancing Agent Long-Horizon Reasoning with Evolving Context [17.575806280348797]
小さなエラーはステップにまたがって複雑で、最先端のモデルでさえしばしばコヒーレンスを幻覚または失う。
本稿では,戦術的実行,戦略的監視,文脈的組織を3つの特殊コンポーネントに分離する軽量階層型フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-09T20:14:26Z) - Beyond RAG vs. Long-Context: Learning Distraction-Aware Retrieval for Efficient Knowledge Grounding [5.353135097018941]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) を外部の最新の情報に基盤付けるためのフレームワークである。
本稿では,適応型検索システムLDAR(Learning Distraction-Aware Retrieval)を提案する。
論文 参考訳(メタデータ) (2025-09-26T04:40:42Z) - Enhancing Retrieval Augmentation via Adversarial Collaboration [50.117273835877334]
我々は「検索幻覚」に対処するため、Adrial Collaboration RAG(AC-RAG)フレームワークを提案する。
AC-RAGは、知識ギャップを識別するジェネリスト検出器と、正確な解決策を提供するドメイン特化リゾルバという2つの異種エージェントを使用している。
実験により、AC-RAGは検索精度を大幅に向上し、様々な垂直領域における最先端RAG法より優れていることが示された。
論文 参考訳(メタデータ) (2025-09-18T08:54:20Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。