論文の概要: Active Context Compression: Autonomous Memory Management in LLM Agents
- arxiv url: http://arxiv.org/abs/2601.07190v1
- Date: Mon, 12 Jan 2026 04:31:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.208541
- Title: Active Context Compression: Autonomous Memory Management in LLM Agents
- Title(参考訳): アクティブコンテキスト圧縮: LLMエージェントの自律記憶管理
- Authors: Nikhil Verma,
- Abstract要約: FocusはPhys polycephalum (slime moldarum)の生物学的探索戦略にインスパイアされたエージェント中心のアーキテクチャである
我々は、有能なモデルが適切なツールとプロンプトを与えられたとき、そのコンテキストを自律的に自己制御できることを実証する。
- 参考スコア(独自算出の注目度): 0.4018831759077372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM) agents struggle with long-horizon software engineering tasks due to "Context Bloat." As interaction history grows, computational costs explode, latency increases, and reasoning capabilities degrade due to distraction by irrelevant past errors. Existing solutions often rely on passive, external summarization mechanisms that the agent cannot control. This paper proposes Focus, an agent-centric architecture inspired by the biological exploration strategies of Physarum polycephalum (slime mold). The Focus Agent autonomously decides when to consolidate key learnings into a persistent "Knowledge" block and actively withdraws (prunes) the raw interaction history. Using an optimized scaffold matching industry best practices (persistent bash + string-replacement editor), we evaluated Focus on N=5 context-intensive instances from SWE-bench Lite using Claude Haiku 4.5. With aggressive prompting that encourages frequent compression, Focus achieves 22.7% token reduction (14.9M -> 11.5M tokens) while maintaining identical accuracy (3/5 = 60% for both agents). Focus performed 6.0 autonomous compressions per task on average, with token savings up to 57% on individual instances. We demonstrate that capable models can autonomously self-regulate their context when given appropriate tools and prompting, opening pathways for cost-aware agentic systems without sacrificing task performance.
- Abstract(参考訳): LLM(Large Language Model)エージェントは、"Context Bloat"によって、長期のソフトウェアエンジニアリングタスクに苦労する。
相互作用履歴が大きくなるにつれて、計算コストが爆発的に増加し、レイテンシが増加し、推論能力が低下する。
既存のソリューションは、エージェントが制御できないパッシブで外部の要約機構に依存していることが多い。
本論文はPhysarum polycephalum(スライムカビ)の生物探査戦略に触発されたエージェント中心型アーキテクチャであるFocusを提案する。
フォーカスエージェントは、いつ鍵学習を永続的な「知識」ブロックに統合するかを自律的に決定し、生のインタラクション履歴を積極的に取り下げる。
最適化された足場マッチング産業のベストプラクティス(永続的bash+文字列置換エディタ)を用いて,Claude Haiku 4.5 を用いて,SWE-bench Lite の N=5 コンテキスト集約型インスタンスに着目した。
頻繁な圧縮を促進する積極的なプロンプトにより、Focusは22.7%のトークン還元(14.9M -> 11.5Mトークン)を達成し、同一の精度(両エージェントの3/5 = 60%)を維持している。
Focusはタスク毎の平均で6.0の自律圧縮を実行し、トークンの保存は個々のインスタンスで最大57%になった。
我々は,タスク性能を犠牲にすることなく,適切なツールを与えられたときのコンテキストを自律的に自己制御し,コストを意識したエージェントシステムの経路を開放できることを実証した。
関連論文リスト
- InfiAgent: An Infinite-Horizon Framework for General-Purpose Autonomous Agents [36.740230738304525]
InfiAgentは、タスクの持続時間に関係なく、エージェントの推論コンテキストを厳密に拘束する。
20Bのオープンソースモデルを持つInfiAgentは、より大きなプロプライエタリなシステムと競合する。
論文 参考訳(メタデータ) (2026-01-06T17:35:57Z) - Towards Efficient Agents: A Co-Design of Inference Architecture and System [66.59916327634639]
本稿では,エージェントアクセラレーションのための統合フレームワークであるAgentInferを提案する。
問題をAgentCollab、AgentSched、AgentSAM、AgentCompressの4つの相乗的コンポーネントに分解する。
BrowseComp-zhとDeepDiverベンチマークの実験では、これらの手法の相乗的コラボレーションを通じて、AgentInferは非効率なトークン消費を50%以上削減することを示した。
論文 参考訳(メタデータ) (2025-12-20T12:06:13Z) - SCOPE: Prompt Evolution for Enhancing Agent Effectiveness [53.75986399936395]
大規模言語モデル(LLM)エージェントは、大規模で動的なコンテキストを生成する環境にますますデプロイされている。
エージェントはこのコンテキストにアクセスできますが、静的なプロンプトには効果的に管理するメカニズムがありません。
textbfSCOPE (Self-evolving Context Optimization via Prompt Evolution) を導入する。
本稿では,戦術的特異性(即時誤りの解消)と戦略的汎用性(長期原則の進化)のバランスをとるデュアルストリーム機構を提案する。
論文 参考訳(メタデータ) (2025-12-17T12:25:05Z) - Agent0: Unleashing Self-Evolving Agents from Zero Data via Tool-Integrated Reasoning [84.70211451226835]
大規模言語モデル(LLM)エージェントは、人間の計算データへの依存によって制約される。
我々は,外部データを持たない高性能エージェントを進化させる完全自律型フレームワークであるAgent0を紹介する。
Agent0は推論能力を大幅に向上させ、Qwen3-8B-Baseモデルを数学的推論で18%改善し、一般的な推論ベンチマークで24%改善した。
論文 参考訳(メタデータ) (2025-11-20T05:01:57Z) - AgentFold: Long-Horizon Web Agents with Proactive Context Management [98.54523771369018]
LLM ベースの Web エージェントは情報検索を大いに約束するが,その有効性はコンテキスト管理における基本的なトレードオフによって妨げられる。
本稿では,プロアクティブなコンテキスト管理を中心としたエージェントパラダイムであるAgentFoldを紹介する。
単純な微調整により,BrowseCompでは36.2%,BrowseComp-ZHでは47.3%を達成した。
論文 参考訳(メタデータ) (2025-10-28T17:51:50Z) - DeepAgent: A General Reasoning Agent with Scalable Toolsets [111.6384541877723]
DeepAgentは、自律的な思考、ツール発見、アクション実行を実行するエンドツーエンドのディープ推論エージェントである。
長期にわたる相互作用の課題に対処するために,過去の相互作用を構造化エピソード,動作,ツール記憶に圧縮する自律的メモリ折り畳み機構を導入する。
LLMシミュレートされたAPIを活用し、ツール呼び出しトークンにきめ細かいクレジットを割り当てるツールコールアドバンテージ属性を適用した、エンドツーエンドの強化学習戦略であるToolPOを開発した。
論文 参考訳(メタデータ) (2025-10-24T16:24:01Z) - SFR-DeepResearch: Towards Effective Reinforcement Learning for Autonomously Reasoning Single Agents [93.26456498576181]
本稿では,ディープリサーチのためのネイティブ自律単エージェントモデルの開発に焦点をあてる。
我々の最良の変種であるSFR-DR-20Bは、HumanityのLast Examベンチマークで28.7%に達する。
論文 参考訳(メタデータ) (2025-09-08T02:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。