論文の概要: Meta Context Engineering via Agentic Skill Evolution
- arxiv url: http://arxiv.org/abs/2601.21557v1
- Date: Thu, 29 Jan 2026 11:22:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.761155
- Title: Meta Context Engineering via Agentic Skill Evolution
- Title(参考訳): エージェントスキル進化によるメタコンテキスト工学
- Authors: Haoran Ye, Xuning He, Vincent Arak, Haonan Dong, Guojie Song,
- Abstract要約: 静的CEの直感に取って代わる2段階のフレームワークであるMeta Context Engineering (MCE)を紹介した。
MCEイテレーションでは、メタレベルエージェントがエージェントクロスオーバー、スキルの歴史、実行、評価に関する熟考的な探索を通じてエンジニアリングスキルを洗練する。
我々は、最先端のエージェントコンテキスト工学手法よりも5.6-53.8%の相対的な改善を達成し、一貫した性能向上を示す。
- 参考スコア(独自算出の注目度): 16.202254287882702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The operational efficacy of large language models relies heavily on their inference-time context. This has established Context Engineering (CE) as a formal discipline for optimizing these inputs. Current CE methods rely on manually crafted harnesses, such as rigid generation-reflection workflows and predefined context schemas. They impose structural biases and restrict context optimization to a narrow, intuition-bound design space. To address this, we introduce Meta Context Engineering (MCE), a bi-level framework that supersedes static CE heuristics by co-evolving CE skills and context artifacts. In MCE iterations, a meta-level agent refines engineering skills via agentic crossover, a deliberative search over the history of skills, their executions, and evaluations. A base-level agent executes these skills, learns from training rollouts, and optimizes context as flexible files and code. We evaluate MCE across five disparate domains under offline and online settings. MCE demonstrates consistent performance gains, achieving 5.6--53.8% relative improvement over state-of-the-art agentic CE methods (mean of 16.9%), while maintaining superior context adaptability, transferability, and efficiency in both context usage and training.
- Abstract(参考訳): 大規模言語モデルの運用効率は、推論時コンテキストに大きく依存する。
これにより、これらの入力を最適化するための正式な規律としてコンテキストエンジニアリング(CE)が確立された。
現在のCEメソッドは、厳密な生成-リフレクションワークフローや定義済みのコンテキストスキーマなど、手作業によるハーネスに依存している。
構造バイアスを課し、コンテキスト最適化を狭く直感的な設計空間に制限する。
この問題を解決するために,静的CEヒューリスティックスに取って代わる双方向フレームワークであるMeta Context Engineering (MCE)を紹介した。
MCEイテレーションでは、メタレベルエージェントがエージェントクロスオーバーによってエンジニアリングスキルを洗練し、スキルの歴史、実行、評価に関する熟考的な探索を行う。
ベースレベルのエージェントがこれらのスキルを実行し、ロールアウトのトレーニングから学び、コンテキストを柔軟なファイルやコードとして最適化する。
オフラインとオンラインの5つの異なるドメインでMCEを評価する。
MCEは、最先端のエージェントCEメソッド(平均16.9%)に対して5.6-53.8%の相対的な改善を達成し、コンテキスト適応性、転送性、および文脈使用とトレーニングの両方において効率性を維持しながら、一貫したパフォーマンス向上を示す。
関連論文リスト
- GCRank: A Generative Contextual Comprehension Paradigm for Takeout Ranking Model [24.44754238668111]
一般的なランキングモデルは、しばしば断片化されたモジュールと手作りの機能に依存している。
本稿では,文脈理解タスクとしてランキングを再構成する新しい生成フレームワークを提案する。
本手法を大規模フードデリバリー広告プラットフォームに導入することに成功している。
論文 参考訳(メタデータ) (2025-10-15T08:42:04Z) - Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models [18.829572148850563]
ACE(Agentic Context Engineering)は、コンテキストを進化するプレイブックとして扱うフレームワークである。
エージェントとドメイン固有のベンチマークを通じて、ACEは一貫して強力なベースラインを上回っている。
ACEは、ラベル付けされた監視なしに効果的に適応することができ、代わりに自然な実行フィードバックを活用することができる。
論文 参考訳(メタデータ) (2025-10-06T09:30:18Z) - ContextNav: Towards Agentic Multimodal In-Context Learning [85.05420047017513]
ContextNavは、自動検索のスケーラビリティと人間のようなキュレーションの品質と適応性を統合するエージェントフレームワークである。
リソースを意識したマルチモーダル埋め込みパイプラインを構築し、検索可能なベクトルデータベースを維持し、エージェント検索と構造アライメントを適用して、ノイズ耐性のあるコンテキストを構築する。
実験の結果、ContextNavはさまざまなデータセットで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-10-06T07:49:52Z) - Zero-Shot Context Generalization in Reinforcement Learning from Few Training Contexts [1.5020330976600738]
我々は,コンテキスト強化ベルマン方程式(CEBE)を導入し,単一コンテキストでの学習時の一般化を改善する。
我々は,CEBEを決定論的制御環境で近似するための効率的なデータ拡張手法として,文脈サンプル拡張(CSE)を導出する。
論文 参考訳(メタデータ) (2025-07-10T00:23:13Z) - Dynamic Context-oriented Decomposition for Task-aware Low-rank Adaptation with Less Forgetting and Faster Convergence [131.41894248194995]
タスク認識方式でアダプタを初期化する新しい手法であるコンテキスト指向分解適応(CorDA)を提案する。
本手法は,タスク認識により,知識保存モード (KPM) と命令レビューモード (IPM) の2つのオプション適応モードを実現する。
論文 参考訳(メタデータ) (2025-06-16T07:55:14Z) - In-Context Edit: Enabling Instructional Image Editing with In-Context Generation in Large Scale Diffusion Transformer [42.44787022143543]
ICEditはテキスト内編集のパラダイムであり、品質改善のためのパラメータ効率の最小限の微調整を行う。
トレーニングデータのわずか0.1%とトレーニング可能なパラメータ1%で、最先端の編集性能を実現している。
論文 参考訳(メタデータ) (2025-04-29T12:14:47Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。