論文の概要: MCP-Zero: Active Tool Discovery for Autonomous LLM Agents
- arxiv url: http://arxiv.org/abs/2506.01056v4
- Date: Tue, 24 Jun 2025 06:27:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 13:29:37.676189
- Title: MCP-Zero: Active Tool Discovery for Autonomous LLM Agents
- Title(参考訳): MCP-Zero: 自律型LLMエージェントのためのアクティブツールディスカバリ
- Authors: Xiang Fei, Xiawu Zheng, Hao Feng,
- Abstract要約: ツール発見の自律性を LLM 自体に復元する,アクティブエージェントフレームワークである MCP-Zero を紹介する。
すべての利用可能なツールで圧倒的なモデルを使用する代わりに、CP-Zeroはエージェントが能率ギャップを積極的に識別し、特定のツールをオンデマンドで要求することを可能にする。
公式の Model-Context-Protocol リポジトリから 308 の MCP サーバと 2,797 ツールの包括的なデータセットである MCP-tools を構築した。
- 参考スコア(独自算出の注目度): 13.005899769943442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: True intelligence requires active capability acquisition, yet current LLM agents inject pre-defined tool schemas into prompts, reducing models to passive selectors and falling short of robust general-purpose agency. We introduce MCP-Zero, an active agent framework that restores tool discovery autonomy to LLMs themselves. Instead of overwhelming models with all available tools, MCP-Zero enables agents to actively identify capability gaps, and request specific tools on-demand, transforming them from large-scale retrievers into genuine autonomous agents. The framework operates through three core mechanisms: (1) Active Tool Request, where models autonomously generate structured requests specifying their exact tool requirements; (2) Hierarchical Semantic Routing, a two-stage algorithm that matches requests to relevant servers and tools through improved semantic alignment; (3) Iterative Capability Extension, enabling agents to progressively build cross-domain toolchains while maintaining minimal context footprint. We construct MCP-tools, a comprehensive dataset of 308 MCP servers and 2,797 tools from the official Model-Context-Protocol repository. Experiments demonstrate that MCP-Zero preserves agent autonomy while achieving substantial efficiency gains: (i) accurate tool selection from nearly 3k candidates across 248.1k tokens; (ii) 98\% reduction in token consumption on APIBank while maintaining high accuracy; and (iii) consistent multi-turn performance that scales with tool ecosystem growth. This work establishes active tool discovery as a fundamental design pattern for scalable autonomous agent systems.
- Abstract(参考訳): 真のインテリジェンスにはアクティブな能力取得が必要だが、現在のLLMエージェントは事前に定義されたツールスキーマをプロンプトに注入し、モデルを受動セレクタに還元し、堅牢な汎用エージェンシーに欠ける。
ツール発見の自律性を LLM 自体に復元する,アクティブエージェントフレームワークである MCP-Zero を紹介する。
すべての利用可能なツールで圧倒的なモデルを使用する代わりに、CP-Zeroはエージェントが機能ギャップを積極的に識別し、特定のツールをオンデマンドで要求することを可能にする。
フレームワークは、(1) アクティブツール要求(Active Tool Request)、(2) 厳密なツール要件を指定する構造化されたリクエストを自律的に生成するモデル、(2) セマンティックルーティング(Hierarchical Semantic Routing)、(3) セマンティックアライメントの改善を通じて、関連するサーバやツールにリクエストをマッチングする2段階のアルゴリズム、(3) 反復能力拡張(Iterative Capability Extension)により、エージェントは最小限のコンテキストを保ちながら、クロスドメインツールチェーンを段階的に構築できる。
公式の Model-Context-Protocol リポジトリから 308 の MCP サーバと 2,797 ツールの包括的なデータセットである MCP-tools を構築した。
MCP-Zeroはエージェントの自律性を保ちながら、実質的な効率向上を実現している。
(i)248.1kトークンの約3k候補からの正確なツール選択
(二 高精度を維持しつつ、APIBankのトークン消費を98 %削減すること。)
(iii) ツールエコシステムの成長に合わせてスケールする、一貫性のあるマルチターンパフォーマンス。
この研究は、スケーラブルな自律エージェントシステムの基本設計パターンとして、アクティブなツール発見を確立する。
関連論文リスト
- ScaleMCP: Dynamic and Auto-Synchronizing Model Context Protocol Tools for LLM Agents [1.7217813564531652]
ScaleMCPは、エージェントにMPPツールレトリバーを動的に装備する新しいツール選択アプローチである。
エージェントは、メモリにツールを追加する自律性に加えて、自動同期ツールストレージシステムパイプラインを提供する。
5000のファイナンシャルメトリックMCPサーバからなるデータセットを用いて総合評価を行い、ツール検索とエージェント起動性能を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2025-05-09T20:30:37Z) - RAG-MCP: Mitigating Prompt Bloat in LLM Tool Selection via Retrieval-Augmented Generation [0.0]
大規模言語モデル(LLM)は、MCP(Model Context Protocol)citeIntroducingMCP(リンク)など、多くの外部ツールを効果的に活用するために苦労している。
RAG-MCPは、ツール発見をオフロードすることで、この課題を克服するRetrieval-Augmented Generationフレームワークである。
論文 参考訳(メタデータ) (2025-05-06T08:05:35Z) - Efficient and Scalable Estimation of Tool Representations in Vector Space [34.767193045989515]
ツール検索のための合成データを生成するためのフレームワークと,小型エンコーダモデルを用いた効率的なデータ駆動型ツール検索戦略を提案する。
ToolBankは、実際のユーザ利用を反映した、新しいツール検索データセットです。
これらの新しい方法により、ToolBenchデータセット上のRecall@Kで最大27.28、ToolBank上のRecall@Kで30.5の改善を実現しています。
論文 参考訳(メタデータ) (2024-09-02T19:39:24Z) - Re-Invoke: Tool Invocation Rewriting for Zero-Shot Tool Retrieval [47.81307125613145]
Re-Invokeは、トレーニングなしで大規模ツールセットに効果的にスケールするために設計された教師なしツール検索手法である。
我々は、クエリ毎に最も関連性の高いツールを特定するために、意図に基づいて、新しいマルチビュー類似度ランキング戦略を採用する。
評価の結果、Re-Invokeはシングルツールとマルチツールの両方のシナリオにおいて、最先端の代替よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-08-03T22:49:27Z) - AnyTool: Self-Reflective, Hierarchical Agents for Large-Scale API Calls [30.792186243538037]
我々はAnyToolを紹介した。AnyToolは巨大な言語モデルエージェントで、ユーザクエリに対処する膨大なツールの利用に革命をもたらすように設計されている。
Rapid APIから16,000以上のAPIを使用し、これらのAPIのサブセットがクエリを解決できると仮定して運用しています。
AnyToolには,階層構造を持つAPIレトリバー,選択したAPI候補セットを使用したユーザクエリの解決を目的とした解決器,自己反映機構という,3つの要素が含まれている。
論文 参考訳(メタデータ) (2024-02-06T18:59:57Z) - ControlLLM: Augment Language Models with Tools by Searching on Graphs [97.62758830255002]
我々は,大規模言語モデル(LLM)が実世界のタスクを解くためのマルチモーダルツールを利用できる新しいフレームワークであるControlLLMを提案する。
フレームワークは,(1)複雑なタスクを明確なサブタスクに分割し,入力と出力を適切に定義したサブタスクに分解するtextittask Decomposer,(2)構築済みのツールグラフ上で最適なソリューションパスを探索する textitThoughts-on-Graph(ToG)パラダイム,(3)ソリューションパスを解釈して実行するリッチなツールボックスを備えた textitexecution Engine,の3つの主要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-26T21:57:21Z) - MetaTool Benchmark for Large Language Models: Deciding Whether to Use Tools and Which to Use [79.87054552116443]
大規模言語モデル(LLM)は、その印象的な自然言語処理(NLP)能力のために大きな注目を集めている。
このベンチマークは、LLMがツールの使用意識を持ち、ツールを正しく選択できるかどうかを評価するためのものだ。
8つの人気のあるLCMを巻き込んだ実験を行い、その大半は依然として効果的にツールを選択するのに苦労していることがわかった。
論文 参考訳(メタデータ) (2023-10-04T19:39:26Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。