論文の概要: Network and Systems Performance Characterization of MCP-Enabled LLM Agents
- arxiv url: http://arxiv.org/abs/2511.07426v1
- Date: Mon, 20 Oct 2025 05:13:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-16 06:38:31.044902
- Title: Network and Systems Performance Characterization of MCP-Enabled LLM Agents
- Title(参考訳): MCP型LLMエージェントのネットワーク・システム性能評価
- Authors: Zihao Ding, Mufeng Zhu, Yao Liu,
- Abstract要約: Model Context Protocol(MCP)は、大規模な言語モデル(LLM)が外部ツールやサービスと対話するための標準化された方法を提供するため、AIコミュニティ内で最近注目を集めている。
本稿では,LCMを用いたMPP対応インタラクションの計測に基づく解析を行い,性能,性能,コストのトレードオフを明らかにした。
- 参考スコア(独自算出の注目度): 2.952262068394116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model Context Protocol (MCP) has recently gained increased attention within the AI community for providing a standardized way for large language models (LLMs) to interact with external tools and services, significantly enhancing their capabilities. However, the inclusion of extensive contextual information, including system prompts, MCP tool definitions, and context histories, in MCP-enabled LLM interactions, dramatically inflates token usage. Given that LLM providers charge based on tokens, these expanded contexts can quickly escalate monetary costs and increase the computational load on LLM services. This paper presents a comprehensive measurement-based analysis of MCP-enabled interactions with LLMs, revealing trade-offs between capability, performance, and cost. We explore how different LLM models and MCP configurations impact key performance metrics such as token efficiency, monetary cost, task completion times, and task success rates, and suggest potential optimizations, including enabling parallel tool calls and implementing robust task abort mechanisms. These findings provide useful insights for developing more efficient, robust, and cost-effective MCP-enabled workflows.
- Abstract(参考訳): 大規模言語モデル(LLM)が外部ツールやサービスと対話し、その機能を大幅に向上する標準方法を提供するため、最近、モデルコンテキストプロトコル(MCP)がAIコミュニティ内で注目を集めている。
しかし、システムプロンプト、MPPツール定義、コンテキストヒストリーを含む広範囲なコンテキスト情報が、MPP対応のLLMインタラクションに含まれており、トークンの使用量は劇的に膨らませている。
LLMプロバイダがトークンに基づいて課金されることを考えると、これらの拡張されたコンテキストは、金銭的コストを迅速にエスカレートし、LLMサービスの計算負荷を増大させることができる。
本稿では,MPPとLCMの相互作用を総合的に分析し,能力,性能,コストのトレードオフを明らかにする。
トークン効率,金銭的コスト,タスク完了時間,タスク成功率などの重要なパフォーマンス指標に異なるLCMモデルとMPP構成がどのような影響を与えるのかを考察し,並列ツールコールの実現や堅牢なタスク停止機構の実装など,潜在的な最適化を提案する。
これらの知見は、より効率的で堅牢で費用対効果の高いMSP対応ワークフローを開発する上で有用な知見を提供する。
関連論文リスト
- Planning without Search: Refining Frontier LLMs with Offline Goal-Conditioned RL [62.984693936073974]
大きな言語モデル(LLM)は、質問応答や対話といったタスクに優れています。
交渉や説得のような相互作用を必要とする複雑なタスクは、さらなる長期の推論と計画を必要とする。
目的条件付き値関数を用いて LLM エージェントの推論を導出する手法を提案する。
論文 参考訳(メタデータ) (2025-05-23T16:51:54Z) - Doing More with Less: A Survey on Routing Strategies for Resource Optimisation in Large Language Model-Based Systems [1.430963201405577]
LLM(Large Language Model)ベースのシステムは、通常、すべてのユーザクエリを処理するために単一の汎用LLMで設計される。
これらのシステムは、異なるクエリが異なるレベルの推論、ドメイン知識、または前処理を必要とするため、非効率である可能性がある。
したがって、より小さなまたは特殊なモデルなど、より適切なコンポーネントにクエリをルーティングするためにルーティングメカニズムを使用することができる。
論文 参考訳(メタデータ) (2025-02-01T12:08:38Z) - AgentPS: Agentic Process Supervision for Content Moderation with Multimodal LLMs [9.35901507816989]
本稿では,Agentic Process Supervisionを大規模言語モデルに統合するフレームワークであるAgentPSを紹介する。
我々は、AgentPSが、公開ベンチマークとプロプライエタリデータセットのベースラインMLLMよりも大幅に改善されていることを示す。
これらの結果は、大規模産業アプリケーションにおける複雑なマルチモーダル分類のためのスケーラブルで効果的なソリューションとして、AgentPSを確立している。
論文 参考訳(メタデータ) (2024-12-15T04:58:00Z) - Interpreting and Improving Large Language Models in Arithmetic Calculation [72.19753146621429]
大規模言語モデル(LLM)は、多くのアプリケーションにまたがる顕著な可能性を示している。
本研究では,LLMが計算を行う特定のメカニズムを明らかにする。
LLMの計算性能を高めるために、これらの必須ヘッド/MLPを選択的に微調整する潜在的な利点について検討する。
論文 参考訳(メタデータ) (2024-09-03T07:01:46Z) - CEBench: A Benchmarking Toolkit for the Cost-Effectiveness of LLM Pipelines [23.925385446070717]
CEBenchは、オンラインの大規模言語モデルをベンチマークするためのオープンソースのツールキットである。
LLMデプロイメントに必要な支出と有効性の間の重要なトレードオフに焦点を当てている。
この能力は、コストへの影響を最小限にしつつ、有効性を最大化することを目的とした重要な意思決定プロセスをサポートします。
論文 参考訳(メタデータ) (2024-06-20T21:36:00Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。