論文の概要: MCP-Zero: Proactive Toolchain Construction for LLM Agents from Scratch
- arxiv url: http://arxiv.org/abs/2506.01056v1
- Date: Sun, 01 Jun 2025 15:48:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.911502
- Title: MCP-Zero: Proactive Toolchain Construction for LLM Agents from Scratch
- Title(参考訳): MCP-Zero:スクラッチからLLM剤のプロアクティブツールチェーン構築
- Authors: Xiang Fei, Xiawu Zheng, Hao Feng,
- Abstract要約: MCP-Zeroは、LCM自身がいつ、どの外部ツールを取得すべきかを判断できるプロアクティブエージェントフレームワークである。
フレームワークは以下の3つのコンポーネントの上に構築されている。 (1) Proactive Tool Request、モデルが構造化された$leftnametool_assistantright>$ blockを出力し、所望のサーバとタスクを明確に指定する。
実験の結果,MSP-Zeroは既存の検索手法のコンテキストオーバーヘッド問題に効果的に対処できることがわかった。
- 参考スコア(独自算出の注目度): 13.005899769943442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Function-calling has enabled large language models (LLMs) to act as tool-using agents, but injecting thousands of tool schemas into the prompt is costly and error-prone. We introduce MCP-Zero, a proactive agent framework that lets the LLM itself decide when and which external tools to retrieve, thereby assembling a task-specific toolchain from scratch. The framework is built upon three components: (1) Proactive Tool Request, where the model emits a structured $\left<\operatorname{tool\_assistant}\right>$ block that explicitly specifies the desired server and task; (2) Hierarchical Vector Routing, a coarse-to-fine retrieval algorithm that first selects candidate servers and then ranks tools within each server based on the semantic similarity; (3) Iterative Proactive Invocation, enabling multi-round, cross-domain toolchain construction with minimal context overhead, and allowing the model to iteratively revise its request when the returned tools are insufficient. To evaluate our approach we also compile MCP-tools, a retrieval dataset comprising 308 MCP servers and 2,797 tools extracted from the official Model-Context-Protocol repository and normalized into a unified JSON schema. Experiments show that MCP-Zero (i) effectively addresses the context overhead problem of existing methods and accurately selects the correct tool from a pool of nearly 3,000 candidates (248.1k tokens); (ii) reduces token consumption by 98\% on the APIbank while maintaining high accuracy; and (iii) supports multi-turn tool invocation with consistent accuracy across rounds. The code and dataset will be released soon.
- Abstract(参考訳): 関数呼び出しにより、大きな言語モデル(LLM)がツール使用エージェントとして機能するようになりましたが、プロンプトに数千のツールスキーマを注入するのはコストがかかり、エラーが発生します。
プロアクティブなエージェントフレームワークであるMPP-Zeroを導入し、LCM自身がいつ、どの外部ツールを取得すべきかを判断できるようにし、タスク固有のツールチェーンをスクラッチから組み立てる。
フレームワークは3つのコンポーネントに基づいて構築されている: 1) Proactive Tool Request, モデルが構造化された$\left<\operatorname{tool\_assistant}\right>$ blockを出力し、所望のサーバとタスクを明確に指定する。 (2) Hierarchical Vector Routingは、まず候補サーバを選択し、セマンティックな類似性に基づいて各サーバ内のツールをランク付けする粗いベクトルルーティングアルゴリズムである。
このアプローチを評価するために,公式の Model-Context-Protocol リポジトリから抽出された 308 MCP サーバと 2,797 ツールからなる検索データセットである MCP-tools もコンパイルし,統一された JSON スキーマに標準化した。
MCP-ゼロの実験
i) 既存のメソッドのコンテキストオーバーヘッド問題に効果的に対処し、3,000近い候補(248.1kトークン)のプールから正しいツールを正確に選択する。
二 高い精度を維持しつつ、APIbank上でトークン消費を98 %削減すること。
(iii)ラウンド毎に一貫した精度でマルチターンツール呼び出しをサポートする。
コードとデータセットはまもなくリリースされる予定だ。
関連論文リスト
- ScaleMCP: Dynamic and Auto-Synchronizing Model Context Protocol Tools for LLM Agents [1.7217813564531652]
ScaleMCPは、エージェントにMPPツールレトリバーを動的に装備する新しいツール選択アプローチである。
エージェントは、メモリにツールを追加する自律性に加えて、自動同期ツールストレージシステムパイプラインを提供する。
5000のファイナンシャルメトリックMCPサーバからなるデータセットを用いて総合評価を行い、ツール検索とエージェント起動性能を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2025-05-09T20:30:37Z) - RAG-MCP: Mitigating Prompt Bloat in LLM Tool Selection via Retrieval-Augmented Generation [0.0]
大規模言語モデル(LLM)は、MCP(Model Context Protocol)citeIntroducingMCP(リンク)など、多くの外部ツールを効果的に活用するために苦労している。
RAG-MCPは、ツール発見をオフロードすることで、この課題を克服するRetrieval-Augmented Generationフレームワークである。
論文 参考訳(メタデータ) (2025-05-06T08:05:35Z) - Efficient and Scalable Estimation of Tool Representations in Vector Space [34.767193045989515]
ツール検索のための合成データを生成するためのフレームワークと,小型エンコーダモデルを用いた効率的なデータ駆動型ツール検索戦略を提案する。
ToolBankは、実際のユーザ利用を反映した、新しいツール検索データセットです。
これらの新しい方法により、ToolBenchデータセット上のRecall@Kで最大27.28、ToolBank上のRecall@Kで30.5の改善を実現しています。
論文 参考訳(メタデータ) (2024-09-02T19:39:24Z) - Re-Invoke: Tool Invocation Rewriting for Zero-Shot Tool Retrieval [47.81307125613145]
Re-Invokeは、トレーニングなしで大規模ツールセットに効果的にスケールするために設計された教師なしツール検索手法である。
我々は、クエリ毎に最も関連性の高いツールを特定するために、意図に基づいて、新しいマルチビュー類似度ランキング戦略を採用する。
評価の結果、Re-Invokeはシングルツールとマルチツールの両方のシナリオにおいて、最先端の代替よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-08-03T22:49:27Z) - AnyTool: Self-Reflective, Hierarchical Agents for Large-Scale API Calls [30.792186243538037]
我々はAnyToolを紹介した。AnyToolは巨大な言語モデルエージェントで、ユーザクエリに対処する膨大なツールの利用に革命をもたらすように設計されている。
Rapid APIから16,000以上のAPIを使用し、これらのAPIのサブセットがクエリを解決できると仮定して運用しています。
AnyToolには,階層構造を持つAPIレトリバー,選択したAPI候補セットを使用したユーザクエリの解決を目的とした解決器,自己反映機構という,3つの要素が含まれている。
論文 参考訳(メタデータ) (2024-02-06T18:59:57Z) - ControlLLM: Augment Language Models with Tools by Searching on Graphs [97.62758830255002]
我々は,大規模言語モデル(LLM)が実世界のタスクを解くためのマルチモーダルツールを利用できる新しいフレームワークであるControlLLMを提案する。
フレームワークは,(1)複雑なタスクを明確なサブタスクに分割し,入力と出力を適切に定義したサブタスクに分解するtextittask Decomposer,(2)構築済みのツールグラフ上で最適なソリューションパスを探索する textitThoughts-on-Graph(ToG)パラダイム,(3)ソリューションパスを解釈して実行するリッチなツールボックスを備えた textitexecution Engine,の3つの主要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-26T21:57:21Z) - MetaTool Benchmark for Large Language Models: Deciding Whether to Use Tools and Which to Use [79.87054552116443]
大規模言語モデル(LLM)は、その印象的な自然言語処理(NLP)能力のために大きな注目を集めている。
このベンチマークは、LLMがツールの使用意識を持ち、ツールを正しく選択できるかどうかを評価するためのものだ。
8つの人気のあるLCMを巻き込んだ実験を行い、その大半は依然として効果的にツールを選択するのに苦労していることがわかった。
論文 参考訳(メタデータ) (2023-10-04T19:39:26Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。