論文の概要: MemTool: Optimizing Short-Term Memory Management for Dynamic Tool Calling in LLM Agent Multi-Turn Conversations
- arxiv url: http://arxiv.org/abs/2507.21428v1
- Date: Tue, 29 Jul 2025 01:42:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.464761
- Title: MemTool: Optimizing Short-Term Memory Management for Dynamic Tool Calling in LLM Agent Multi-Turn Conversations
- Title(参考訳): MemTool: LLMエージェントマルチスレッド会話における動的ツール呼び出しのための短期記憶管理の最適化
- Authors: Elias Lumer, Anmol Gulati, Vamse Kumar Subbiah, Pradeep Honaganahalli Basavaraju, James A. Burke,
- Abstract要約: 大規模言語モデル(LLM)エージェントは、関連するツールや個々のクエリのためのモデルコンテキストプロトコル(MCP)サーバを動的に検索し、組み込む上で、重要な自律性を示している。
我々は,LLMエージェントがマルチターン会話を通じて,ツールやMPPサーバコンテキストを動的に管理できる,短期記憶フレームワークであるMemToolを紹介した。
- 参考スコア(独自算出の注目度): 1.7217813564531652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM) agents have shown significant autonomous capabilities in dynamically searching and incorporating relevant tools or Model Context Protocol (MCP) servers for individual queries. However, fixed context windows limit effectiveness in multi-turn interactions requiring repeated, independent tool usage. We introduce MemTool, a short-term memory framework enabling LLM agents to dynamically manage tools or MCP server contexts across multi-turn conversations. MemTool offers three agentic architectures: 1) Autonomous Agent Mode, granting full tool management autonomy, 2) Workflow Mode, providing deterministic control without autonomy, and 3) Hybrid Mode, combining autonomous and deterministic control. Evaluating each MemTool mode across 13+ LLMs on the ScaleMCP benchmark, we conducted experiments over 100 consecutive user interactions, measuring tool removal ratios (short-term memory efficiency) and task completion accuracy. In Autonomous Agent Mode, reasoning LLMs achieve high tool-removal efficiency (90-94% over a 3-window average), while medium-sized models exhibit significantly lower efficiency (0-60%). Workflow and Hybrid modes consistently manage tool removal effectively, whereas Autonomous and Hybrid modes excel at task completion. We present trade-offs and recommendations for each MemTool mode based on task accuracy, agency, and model capabilities.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、関連するツールや個々のクエリのためのモデルコンテキストプロトコル(MCP)サーバを動的に検索し、組み込む上で、重要な自律性を示している。
しかし、固定コンテキストウィンドウは、反復的な独立したツールの使用を必要とするマルチターンインタラクションにおける有効性を制限している。
我々は,LLMエージェントがマルチターン会話を通じて,ツールやMPPサーバコンテキストを動的に管理できる,短期記憶フレームワークであるMemToolを紹介した。
MemToolは3つのエージェントアーキテクチャを提供する。
1) 完全ツール管理の自律を付与する自律エージェントモード
2 自律性のない決定論的制御を提供するワークフローモード及び
3) 自律的・決定論的制御を組み合わせたハイブリッドモード。
ScaleMCPベンチマークでは,MemToolモードを13 LLM以上で評価し,100以上のユーザインタラクション,ツール削除率(短期記憶効率),タスク完了精度を測定した。
自律エージェントモードでは、LLMは高い工具除去効率(3ウィンドウ平均よりも90-94%)を達成する一方、中型モデルは著しく低い効率(0-60%)を示す。
ワークフローとハイブリッドモードはツール削除を効果的に管理するが、自律モードとハイブリッドモードはタスク完了時に優れている。
タスク精度,エージェンシー,モデル能力に基づいて,各MemToolモードのトレードオフとレコメンデーションを提示する。
関連論文リスト
- MCP-Zero: Active Tool Discovery for Autonomous LLM Agents [13.005899769943442]
ツール発見の自律性を LLM 自体に復元する,アクティブエージェントフレームワークである MCP-Zero を紹介する。
すべての利用可能なツールで圧倒的なモデルを使用する代わりに、CP-Zeroはエージェントが能率ギャップを積極的に識別し、特定のツールをオンデマンドで要求することを可能にする。
公式の Model-Context-Protocol リポジトリから 308 の MCP サーバと 2,797 ツールの包括的なデータセットである MCP-tools を構築した。
論文 参考訳(メタデータ) (2025-06-01T15:48:53Z) - ScaleMCP: Dynamic and Auto-Synchronizing Model Context Protocol Tools for LLM Agents [1.7217813564531652]
ScaleMCPは、エージェントにMPPツールレトリバーを動的に装備する新しいツール選択アプローチである。
エージェントは、メモリにツールを追加する自律性に加えて、自動同期ツールストレージシステムパイプラインを提供する。
5000のファイナンシャルメトリックMCPサーバからなるデータセットを用いて総合評価を行い、ツール検索とエージェント起動性能を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2025-05-09T20:30:37Z) - Multi-modal Agent Tuning: Building a VLM-Driven Agent for Efficient Tool Usage [75.76940471949366]
本稿では,マルチモーダルツール使用データを自動的に生成するマルチモーダルエージェントチューニング手法を提案する。
データ品質を維持するため、GPT-4oミニモデルにクエリ、ファイル、トラジェクトリを生成するよう促す。
T3-Agentは2つの人気のあるVLMの改良を一貫して達成している。
論文 参考訳(メタデータ) (2024-12-20T07:00:46Z) - Tool Learning in the Wild: Empowering Language Models as Automatic Tool Agents [56.822238860147024]
大規模な言語モデルを外部ツールで拡張することは、彼らのユーティリティを拡張するための有望なアプローチとして現れました。
以前のメソッドは、ツールドキュメントを手動で解析し、コンテキスト内デモを作成し、ツールをLLMがステップバイステップの推論で使用する構造化フォーマットに変換する。
LLMがツール使用ワークフローを自動化できるフレームワークであるAutoToolsを提案する。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - Learning to Use Tools via Cooperative and Interactive Agents [58.77710337157665]
ツール学習は、外部ツールを使用してユーティリティを拡張するエージェントとして、大きな言語モデル(LLM)を促進する。
ツール選択,ツール実行,アクションキャリブレーションの3つの特別なエージェントを個別にコーディネートする,協調型対話型エージェントフレームワークであるConAgentsを提案する。
3つのデータセットに対する実験により、LLMは、ConAgentsを装備した場合、大幅に改善されたベースラインよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-05T15:08:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。