論文の概要: PAACE: A Plan-Aware Automated Agent Context Engineering Framework
- arxiv url: http://arxiv.org/abs/2512.16970v1
- Date: Thu, 18 Dec 2025 12:54:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.134234
- Title: PAACE: A Plan-Aware Automated Agent Context Engineering Framework
- Title(参考訳): PAACE: 計画対応自動エージェントコンテキストエンジニアリングフレームワーク
- Authors: Kamer Ali Yuksel,
- Abstract要約: 大規模言語モデル(LLM)エージェントは、キュレート、変換、圧縮され、忠実さを維持し、注意の希釈を回避し、推論コストを削減しなければならない、急速に拡大するコンテキストを生成する。
PAACE(Plan-Aware Automated Context Engineering)は,Next-k-task Relevance Modeling, plan-aware instruction co-refinement,関数保存圧縮を通じて,LLMエージェントの進化状態を最適化する統合フレームワークである。
長期のベンチマーク(AppWorld、OfficeBench、および8-Objective QA)の実験では、PAACEは、コンテキスト負荷を大幅に削減しながら、エージェントの正しさを一貫して改善することを示した。
- 参考スコア(独自算出の注目度): 2.1756081703276
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Model (LLM) agents are increasingly deployed in complex, multi-step workflows involving planning, tool use, reflection, and interaction with external knowledge systems. These workflows generate rapidly expanding contexts that must be curated, transformed, and compressed to maintain fidelity, avoid attention dilution, and reduce inference cost. Prior work on summarization and query-aware compression largely ignores the multi-step, plan-aware nature of agentic reasoning. In this work, we introduce PAACE (Plan-Aware Automated Context Engineering), a unified framework for optimizing the evolving state of LLM agents through next-k-task relevance modeling, plan-structure analysis, instruction co-refinement, and function-preserving compression. PAACE comprises (1) PAACE-Syn, a large-scale generator of synthetic agent workflows annotated with stepwise compression supervision, and (2) PAACE-FT, a family of distilled, plan-aware compressors trained from successful teacher demonstrations. Experiments on long-horizon benchmarks (AppWorld, OfficeBench, and 8-Objective QA) demonstrate that PAACE consistently improves agent correctness while substantially reducing context load. On AppWorld, PAACE achieves higher accuracy than all baselines while lowering peak context and cumulative dependency. On OfficeBench and multi-hop QA, PAACE improves both accuracy and F1, achieving fewer steps, lower peak tokens, and reduced attention dependency. Distilled PAACE-FT retains 97 percent of the teacher's performance while reducing inference cost by over an order of magnitude, enabling practical deployment of plan-aware compression with compact models.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、計画、ツールの使用、リフレクション、外部の知識システムとの相互作用を含む複雑な多段階のワークフローにますますデプロイされている。
これらのワークフローは、キュレート、変換、圧縮されて、忠実さを維持し、注意の希釈を回避し、推論コストを削減しなければならない、急速に拡大するコンテキストを生成する。
要約とクエリアウェア圧縮に関する先行研究は、エージェント推論の多段階的計画アウェアな性質をほとんど無視している。
本研究では,次kタスク関連性モデリング,計画構造解析,命令コリファインメント,関数保存圧縮を通じて,LLMエージェントの進化状態を最適化する統合フレームワークPAACE(Plan-Aware Automated Context Engineering)を紹介する。
PAACEは,(1)段階的圧縮管理を付加した大規模合成エージェントワークフローであるPAACE-Synと,(2)教師のデモンストレーションから訓練した蒸留プラン対応圧縮機のファミリーであるPAACE-FTから構成される。
長期のベンチマーク(AppWorld、OfficeBench、および8-Objective QA)の実験では、PAACEは、コンテキスト負荷を大幅に削減しながら、エージェントの正しさを一貫して改善することを示した。
AppWorldでは、PAACEはピークコンテキストと累積依存性を低くしながら、すべてのベースラインよりも高い精度を達成する。
OfficeBenchとマルチホップQAでは、PAACEは正確性とF1の両方を改善し、ステップの削減、ピークトークンの削減、アテンション依存の低減を実現している。
蒸留PAACE-FTは、教師のパフォーマンスの97%を維持し、推論コストを桁違いに削減し、コンパクトモデルによる計画認識圧縮の実践的展開を可能にする。
関連論文リスト
- Astraea: A State-Aware Scheduling Engine for LLM-Powered Agents [12.884297990127985]
Astraeaは、最適化をローカルセグメントからグローバルリクエストライフサイクルに移行するように設計されたサービスエンジンである。
これは、リクエストの履歴状態と将来の予測を統合する、ステートアウェアで階層的なスケジューリングアルゴリズムを採用している。
Astraea は平均 JCT を基準法に比べて 25.5% 削減する。
論文 参考訳(メタデータ) (2025-12-16T06:55:10Z) - Compressor-VLA: Instruction-Guided Visual Token Compression for Efficient Robotic Manipulation [8.316354570715491]
VLA(Vision-Language-Action)モデルは、Embodied AIにおいて強力なパラダイムとして登場した。
本稿では,視覚情報の効率的なタスク指向圧縮を目的とした,ハイブリッドな命令条件付きトークン圧縮フレームワークを提案する。
提案手法は,FLOPを59%,視覚トークン数を3倍以上削減しつつ,LIBEROベンチマークの競争的成功率を実現していることを示す。
論文 参考訳(メタデータ) (2025-11-24T10:06:41Z) - Rethinking Autoregressive Models for Lossless Image Compression via Hierarchical Parallelism and Progressive Adaptation [75.58269386927076]
自己回帰(AR)モデルは、しばしば計算コストの禁止のために非現実的に除外される。
この研究は、階層的並列性とプログレッシブ適応に基づくフレームワークを導入して、このパラダイムを再考する。
各種データセット(自然,衛星,医療)の実験により,本手法が新たな最先端圧縮を実現することを確認した。
論文 参考訳(メタデータ) (2025-11-14T06:27:58Z) - ACON: Optimizing Context Compression for Long-horizon LLM Agents [35.364309592473845]
大規模言語モデル(LLM)は、動的で現実世界の環境においてエージェントとしてますます多くデプロイされている。
エージェントコンテキスト最適化(ACON)は、環境観測と相互作用履歴の両方を簡潔な凝縮に最適に圧縮する。
ACONは、メモリ使用量を26~54%削減し、タスク性能を保ちながら、より小さな圧縮機に蒸留すると95%以上の精度を維持する。
論文 参考訳(メタデータ) (2025-10-01T07:43:49Z) - AutoChemSchematic AI: Agentic Physics-Aware Automation for Chemical Manufacturing Scale-Up [2.5875933818780363]
現在のAIシステムは、重要なエンジニアリングスキーマを確実に生成することはできない。
産業用PFDとPIDの自動生成のためのクローズドループ物理対応フレームワークを提案する。
本研究では,本フレームワークが高忠実度でシミュレータ検証されたプロセス記述を生成することを示す。
論文 参考訳(メタデータ) (2025-05-30T13:32:00Z) - Boosting All-in-One Image Restoration via Self-Improved Privilege Learning [72.35265021054471]
SIPL(Self-Improved Privilege Learning)は、トレーニング以外の特権情報(PI)を推論段階に拡張することで制限を克服する新しいパラダイムである。
SIPLの中心は、学習可能なPrivleged Dictionaryを組み込んだ軽量モジュールであるProxy Fusionである。
大規模な実験により、SIPLは様々なオールインワン画像復元ベンチマークの最先端性を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-05-30T04:36:52Z) - Structured Agent Distillation for Large Language Model [56.38279355868093]
本研究では,LLMをベースとした大規模エージェントを小さな学生モデルに圧縮するフレームワークであるStructured Agent Distillationを提案する。
提案手法は, [REASON] と [ACT] にトラジェクトリを分割し, 各コンポーネントを教師の行動に合わせるためにセグメント特異的な損失を適用した。
ALFWorld、HotPotQA-ReAct、WebShopの実験は、我々のアプローチがトークンレベルと模倣学習のベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-05-20T02:01:55Z) - Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - You Only Compress Once: Towards Effective and Elastic BERT Compression
via Exploit-Explore Stochastic Nature Gradient [88.58536093633167]
既存のモデル圧縮アプローチでは、さまざまなハードウェアデプロイメントに対応するために、さまざまな制約にまたがる再圧縮や微調整が必要となる。
圧縮を一度行い、至るところに展開するための新しいアプローチであるYOCO-BERTを提案する。
最先端のアルゴリズムと比較すると、YOCO-BERTはよりコンパクトなモデルを提供するが、GLUEベンチマークの平均精度は2.1%-4.5%向上している。
論文 参考訳(メタデータ) (2021-06-04T12:17:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。