論文の概要: Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models
- arxiv url: http://arxiv.org/abs/2510.04618v1
- Date: Mon, 06 Oct 2025 09:30:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.773221
- Title: Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models
- Title(参考訳): エージェントコンテキストエンジニアリング:自己改善型言語モデルのためのコンテキストの進化
- Authors: Qizheng Zhang, Changran Hu, Shubhangi Upasani, Boyuan Ma, Fenglu Hong, Vamsidhar Kamanuru, Jay Rainton, Chen Wu, Mengmeng Ji, Hanchen Li, Urmish Thakker, James Zou, Kunle Olukotun,
- Abstract要約: ACE(Agentic Context Engineering)は、コンテキストを進化するプレイブックとして扱うフレームワークである。
エージェントとドメイン固有のベンチマークを通じて、ACEは一貫して強力なベースラインを上回っている。
ACEは、ラベル付けされた監視なしに効果的に適応することができ、代わりに自然な実行フィードバックを活用することができる。
- 参考スコア(独自算出の注目度): 18.829572148850563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) applications such as agents and domain-specific reasoning increasingly rely on context adaptation -- modifying inputs with instructions, strategies, or evidence, rather than weight updates. Prior approaches improve usability but often suffer from brevity bias, which drops domain insights for concise summaries, and from context collapse, where iterative rewriting erodes details over time. Building on the adaptive memory introduced by Dynamic Cheatsheet, we introduce ACE (Agentic Context Engineering), a framework that treats contexts as evolving playbooks that accumulate, refine, and organize strategies through a modular process of generation, reflection, and curation. ACE prevents collapse with structured, incremental updates that preserve detailed knowledge and scale with long-context models. Across agent and domain-specific benchmarks, ACE optimizes contexts both offline (e.g., system prompts) and online (e.g., agent memory), consistently outperforming strong baselines: +10.6% on agents and +8.6% on finance, while significantly reducing adaptation latency and rollout cost. Notably, ACE could adapt effectively without labeled supervision and instead by leveraging natural execution feedback. On the AppWorld leaderboard, ACE matches the top-ranked production-level agent on the overall average and surpasses it on the harder test-challenge split, despite using a smaller open-source model. These results show that comprehensive, evolving contexts enable scalable, efficient, and self-improving LLM systems with low overhead.
- Abstract(参考訳): エージェントやドメイン固有の推論などの大規模言語モデル(LLM)アプリケーションは、重み更新ではなく、インプットを命令、戦略、エビデンスで修正するコンテキスト適応にますます依存している。
それまでのアプローチではユーザビリティが向上するが、簡潔な要約のためにドメインの洞察を落とし、コンテキストの崩壊から時間が経つにつれてエローズの詳細を反復的に書き直すという、簡潔さのバイアスに悩まされることが多い。
ACE(Agentic Context Engineering)は、コンテキストを、生成、リフレクション、キュレーションのモジュールプロセスを通じて戦略を蓄積、洗練、整理する進化的なプレイブックとして扱うフレームワークです。
ACEは構造化されたインクリメンタルアップデートによる崩壊を防ぎ、長いコンテキストモデルで詳細な知識とスケールを保存する。
エージェントとドメイン固有のベンチマークを通じて、ACEはオフライン(例えば、システムプロンプト)とオンライン(例えば、エージェントメモリ)の両方のコンテキストを最適化し、強いベースライン(エージェントが+10.6%、ファイナンスが+8.6%)を一貫して上回り、適応遅延とロールアウトコストを大幅に削減する。
特にACEは、ラベル付けされた監視なしに効果的に適応することができ、代わりに自然な実行フィードバックを活用することができる。
AppWorldのリーダーボードでは、ACEは、オープンソースモデルが小さいにもかかわらず、全体平均でトップランクのプロダクションレベルのエージェントと一致し、より難しいテスト混成のスプリットを上回ります。
これらの結果から, 拡張性, 効率性, 自己改善性を備えたLLMシステムを, 低オーバーヘッドで実現できることが示唆された。
関連論文リスト
- Meta-Policy Reflexion: Reusable Reflective Memory and Rule Admissibility for Resource-Efficient LLM Agent [6.300669721057781]
メタ・ポリシィ・リフレクション(Meta-Policy Reflexion, MPR)は、LCM生成したリフレクションを構造化された述語型メタ・ポリシィ・メモリ(MPM)に集約するフレームワークである。
MPRはモデルウェイト更新なしで再利用可能な修正知識を外部化し、安全でないアクションや無効なアクションを減らすためにドメイン制約を強制し、言語ベースのリフレクションの適応性を維持する。
供給材料に報告された実証結果は, 反射ベースラインと比較して, 実行精度とロバスト性が一貫した向上を示し, 規則許容性は安定性をさらに向上させる。
論文 参考訳(メタデータ) (2025-09-04T08:18:39Z) - MeVe: A Modular System for Memory Verification and Effective Context Control in Language Models [0.0]
MeVeは、メモリ検証とスマートコンテキスト合成を目的とした、新しいモジュラーアーキテクチャである。
MeVe は RAG のパラダイムを再考し、検索とコンテキストの構成プロセスを明確に分解する5相モジュラー設計を提案している。
MeVeはコンテキスト効率を大幅に改善し、Wikipediaデータセットの57%の削減と、標準的なRAG実装と比較して、より複雑なHotpotQAデータセットの75%の削減を実現している。
論文 参考訳(メタデータ) (2025-09-01T14:33:09Z) - Reflection-Enhanced Meta-Optimization Integrating TextGrad-style Prompt Optimization with Memory-Driven Self-Evolution [0.0]
本稿では,メモリ拡張リフレクションRetrievalRAGモジュールと自己適応型メタコントローラを統合するフレームワークを提案する。
REMOは、計算オーバーヘッドの増加にもかかわらず、より安定で堅牢なチューニングを実現する。
論文 参考訳(メタデータ) (2025-08-26T07:25:45Z) - ToolACE-MT: Non-Autoregressive Generation for Agentic Multi-Turn Interaction [84.90394416593624]
大規模言語モデル(LLM)によるエージェント的タスク解決には,多ターン・マルチステップインタラクションが必要である。
既存のシミュレーションベースのデータ生成手法は、複数のエージェント間のコストのかかる自己回帰的相互作用に大きく依存している。
本稿では,高品質なマルチターンエージェント対話を構築するための非自己回帰反復生成フレームワークであるToolACE-MTを提案する。
論文 参考訳(メタデータ) (2025-08-18T07:38:23Z) - Less is More: Empowering GUI Agent with Context-Aware Simplification [62.02157661751793]
我々は,SimpAgentと呼ばれる,効率的かつ効果的なGUIエージェントを構築するためのコンテキスト認識フレームワークを提案する。
上記のコンポーネントにより、SimpAgentは27%のFLOPを削減し、優れたGUIナビゲーション性能を実現する。
論文 参考訳(メタデータ) (2025-07-04T17:37:15Z) - Dynamic Context-oriented Decomposition for Task-aware Low-rank Adaptation with Less Forgetting and Faster Convergence [131.41894248194995]
タスク認識方式でアダプタを初期化する新しい手法であるコンテキスト指向分解適応(CorDA)を提案する。
本手法は,タスク認識により,知識保存モード (KPM) と命令レビューモード (IPM) の2つのオプション適応モードを実現する。
論文 参考訳(メタデータ) (2025-06-16T07:55:14Z) - PICASO: Permutation-Invariant Context Composition with State Space Models [98.91198288025117]
State Space Models (SSM) は、コンテキストのデータベースを固定次元の状態にマッピング可能にすることで、有望なソリューションを提供する。
本研究では,SSM力学から導かれる単純な数学的関係を,生のコンテキストトークンの連結効果を効率的に近似する複数の状態に構成する。
我々は,WikiText と MSMARCO をゼロショットと微調整の両方で評価し,平均5.4倍のスピードアップを楽しみながら最強の演奏ベースラインと一致できることを示す。
論文 参考訳(メタデータ) (2025-02-24T19:48:00Z) - Towards more Contextual Agents: An extractor-Generator Optimization Framework [0.0]
LLM(Large Language Model)ベースのエージェントは、幅広い汎用アプリケーションにわたる複雑なタスクの解決に顕著な成功を収めている。
しかしながら、それらのパフォーマンスは、専門産業や研究領域のようなコンテキスト固有のシナリオで劣化することが多い。
この課題に対処するため,本研究では,LLMエージェントの文脈適応性を高めるための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:07:06Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。