論文の概要: CodeMem: Architecting Reproducible Agents via Dynamic MCP and Procedural Memory
- arxiv url: http://arxiv.org/abs/2512.15813v1
- Date: Wed, 17 Dec 2025 11:28:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.739553
- Title: CodeMem: Architecting Reproducible Agents via Dynamic MCP and Procedural Memory
- Title(参考訳): CodeMem: 動的MPPと手続き記憶による再現可能なエージェントのアーキテクチャ
- Authors: Nishant Gaurav, Adit Akarsh, Tejas Ravishankar, Manoj Bajaj,
- Abstract要約: 現在のツールを使用するAIエージェントは、アクションスペースの制限、コンテキストの非効率性、確率的不安定性に悩まされている。
本稿では,再利用可能なエージェントを決定論的信頼性で構築・実行するために,コードを介して手続き型メモリを実装するアーキテクチャであるCodeMemを提案する。
- 参考スコア(独自算出の注目度): 0.5599792629509229
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current tool-using AI agents suffer from limited action space, context inefficiency, and probabilistic instability that makes them unsuitable for handling repetitive tasks which are otherwise reliably and efficiently tackled by agentic workflows built on platforms like n8n and Zapier. Earlier works like CodeAct, DynaSaur, Code Mode have tried to tackle the first two issues by using the whole Python language as its action space: The number of tools that the agent can call becomes infinite. Python code blocks can execute complex actions into a single step and print only relevant results which helps in keeping the context lean. However, the probabilistic instability issue still remains, as for the same task in the same environment, the agent can follow different trajectories due to the probabilistic nature of LLMs. Therefore, we need procedural memory for consistency and reliability. This paper proposes CodeMem, an architecture to implement procedural memory via code which can be used to build and run reusable agentic workflows with deterministic reliability.
- Abstract(参考訳): 現在のツールを使用するAIエージェントは、限られたアクションスペース、コンテキストの非効率性、確率的不安定性に悩まされており、そうでなければn8nやZapierのようなプラットフォーム上に構築されたエージェントワークフローによって確実に効率的に取り組まれる反復的なタスクを扱うのに適さない。
CodeAct、DynaSaur、Code Modeといった以前の作業は、Python言語全体をアクション空間として使用することで、最初の2つの問題に対処しようとした。
Pythonのコードブロックは複雑なアクションをひとつのステップで実行し、関連する結果のみをプリントすることで、コンテキストをリーンに保つことができる。
しかし, LLMの確率的性質から, 同じ環境下で同じ作業を行うと, エージェントは異なる軌道を辿ることができるため, 確率的不安定性問題は依然として残っている。
したがって、一貫性と信頼性のために手続き記憶が必要である。
本稿では,再利用可能なエージェントワークフローを決定論的信頼性で構築および実行するために,コードを介して手続き型メモリを実装するアーキテクチャであるCodeMemを提案する。
関連論文リスト
- Blueprint First, Model Second: A Framework for Deterministic LLM Workflow [3.9886771197662925]
我々は、"Blueprint First, Model Second"哲学に基づいた新しいパラダイムであるSource Code Agentフレームワークを紹介します。
私たちのフレームワークは、ワークフローロジックを生成モデルから切り離します。
我々の研究は、厳格な手続き論理に支配されるアプリケーションに自律エージェントを検証し、信頼性の高い配置を可能にする。
論文 参考訳(メタデータ) (2025-08-01T03:10:00Z) - AgentKit: Structured LLM Reasoning with Dynamic Graphs [91.09525140733987]
多機能エージェントのための直感的なLCMプロンプトフレームワーク(AgentKit)を提案する。
AgentKitは、単純な自然言語プロンプトから複雑な"思考プロセス"を明示的に構築するための統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-04-17T15:40:45Z) - Executable Code Actions Elicit Better LLM Agents [76.95566120678787]
この研究は、Pythonコードを使用して、Large Language Model(LLM)エージェントのアクションを統一されたアクション空間(CodeAct)に統合することを提案する。
Pythonインタプリタと統合されたCodeActは、コードアクションを実行し、事前アクションを動的に修正したり、マルチターンインタラクションを通じて新しい観察に新しいアクションを発行することができる。
CodeActのパフォーマンス向上は、解釈可能なコードを実行し、自然言語を使ってユーザとコラボレーションすることで、環境と対話するオープンソースのLLMエージェントを構築する動機となります。
論文 参考訳(メタデータ) (2024-02-01T21:38:58Z) - InterCode: Standardizing and Benchmarking Interactive Coding with
Execution Feedback [50.725076393314964]
標準的な強化学習環境として,インタラクティブコーディングの軽量でフレキシブルで使いやすいフレームワークであるInterCodeを紹介した。
私たちのフレームワークは、言語とプラットフォームに依存しない、自己完結型のDocker環境を使用して、安全で再現可能な実行を提供します。
我々は、異なるプロンプト戦略で構成された複数の最先端LLMを評価することにより、InterCodeの生存性をテストベッドとして示す。
論文 参考訳(メタデータ) (2023-06-26T17:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。