論文の概要: Bridging Protocol and Production: Design Patterns for Deploying AI Agents with Model Context Protocol
- arxiv url: http://arxiv.org/abs/2603.13417v1
- Date: Thu, 12 Mar 2026 17:42:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.181051
- Title: Bridging Protocol and Production: Design Patterns for Deploying AI Agents with Model Context Protocol
- Title(参考訳): ブリッジプロトコルと生産:モデルコンテキストプロトコルによるAIエージェントのデプロイのための設計パターン
- Authors: Vasundra Srinivasan,
- Abstract要約: Model Context Protocol(MCP)は、AIエージェントが外部ツールを発見して呼び出す方法を標準化する。
アイデンティティの伝搬、アダプティブツールの予算化、構造化エラーセマンティクスの3つのプロトコルレベルのプリミティブがまだ欠けている。
本稿では,大手クラウドプロバイダのMPPサーバと統合されたAIエージェントプラットフォームの企業展開から,現場での授業を通じて,これらのギャップを識別する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Model Context Protocol (MCP) standardizes how AI agents discover and invoke external tools, with over 10,000 active servers and 97 million monthly SDK downloads as of early 2026. Yet MCP does not yet standardize how agents safely operate those tools at production scale. Three protocol-level primitives remain missing: identity propagation, adaptive tool budgeting, and structured error semantics. This paper identifies these gaps through field lessons from an enterprise deployment of an AI agent platform integrated with a major cloud provider's MCP servers (client name redacted). We propose three mechanisms to fill them: (1) the Context-Aware Broker Protocol (CABP), which extends JSON-RPC with identity-scoped request routing via a six-stage broker pipeline; (2) Adaptive Timeout Budget Allocation (ATBA), which frames sequential tool invocation as a budget allocation problem over heterogeneous latency distributions; and (3) the Structured Error Recovery Framework (SERF), which provides machine-readable failure semantics that enable deterministic agent self-correction. We organize production failure modes into five design dimensions (server contracts, user context, timeouts, errors, and observability), document concrete failure vignettes, and present a production readiness checklist. All three algorithms are formalized as testable hypotheses with reproducible experimental methodology. Field observations demonstrate that while MCP provides a solid protocol foundation, reliable agent tool integration requires infrastructure-level mechanisms that the specification does not yet address.
- Abstract(参考訳): Model Context Protocol(MCP)は、AIエージェントが外部ツールを発見して起動する方法を標準化している。
しかし、MPPはまだ、エージェントがこれらのツールを運用規模で安全に運用する方法を標準化していない。
アイデンティティの伝搬、アダプティブツールの予算化、構造化エラーセマンティクスの3つのプロトコルレベルのプリミティブがまだ欠けている。
本稿では,大手クラウドプロバイダのMPPサーバと統合されたAIエージェントプラットフォームの企業展開(クライアント名の再実行)から,これらのギャップを特定する。
提案手法は,(1)JSON-RPCを拡張したコンテキストアウェアブローカプロトコル(CABP),(2)不均一な遅延分散に対する予算配分問題として逐次ツールの実行をフレーム化する適応タイムアウト予算割当(ATBA),(3)決定論的エージェントの自己補正を可能にするマシン可読な障害セマンティクスを提供する構造化エラー回復フレームワーク(SERF)の3つである。
プロダクション障害モードを5つの設計ディメンション(サーバ契約、ユーザコンテキスト、タイムアウト、エラー、可観測性)に分類し、具体的な障害ウィグレットを文書化し、プロダクション準備チェックリストを提示します。
これら3つのアルゴリズムは、再現可能な実験手法で検証可能な仮説として定式化される。
フィールド観測では、MPPはしっかりとしたプロトコル基盤を提供するが、信頼できるエージェントツールの統合には、仕様にまだ対応していないインフラストラクチャレベルのメカニズムが必要であることが示されている。
関連論文リスト
- The Auton Agentic AI Framework [5.410458076724158]
人工知能の分野では、ジェネレーティブAIからエージェントAIへの移行が進行中である。
大規模言語モデル(LLM)は構造化されていない出力を生成するが、それらが制御しなければならないバックエンドインフラストラクチャは決定論的でスキーマに適合する入力を必要とする。
本稿では,自律エージェントの作成,作成,管理を行うための原則アーキテクチャであるAuton Agentic AI Frameworkについて述べる。
論文 参考訳(メタデータ) (2026-02-27T06:42:08Z) - Breaking the Protocol: Security Analysis of the Model Context Protocol Specification and Prompt Injection Vulnerabilities in Tool-Integrated LLM Agents [0.0]
Model Context Protocol(MCP)は、大規模言語モデルと外部ツールを統合するデファクトスタンダードとして登場した。
MCPのアーキテクチャ設計において,3つの基本的なプロトコルレベルの脆弱性を特定し,厳密なセキュリティ分析を行った。
この結果から,MPPのセキュリティの弱点は実装固有のものではなくアーキテクチャであり,プロトコルレベルの修復が必要であることが判明した。
論文 参考訳(メタデータ) (2026-01-24T18:40:17Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - Towards Efficient Agents: A Co-Design of Inference Architecture and System [66.59916327634639]
本稿では,エージェントアクセラレーションのための統合フレームワークであるAgentInferを提案する。
問題をAgentCollab、AgentSched、AgentSAM、AgentCompressの4つの相乗的コンポーネントに分解する。
BrowseComp-zhとDeepDiverベンチマークの実験では、これらの手法の相乗的コラボレーションを通じて、AgentInferは非効率なトークン消費を50%以上削減することを示した。
論文 参考訳(メタデータ) (2025-12-20T12:06:13Z) - Code2MCP: Transforming Code Repositories into MCP Services [53.234097255779744]
Model Context Protocol (MCP)は、大規模言語モデルがどのようにツールを使用するかの標準を作成することを目的としている。
私たちは、GitHubリポジトリを機能的なMSPサービスに自動的に変換するエージェントベースのフレームワークであるCode2MCPを紹介します。
Code2MCPはバイオインフォマティクス、数学、流体力学などの科学分野におけるオープンソースの計算ライブラリの変換に成功している。
論文 参考訳(メタデータ) (2025-09-07T06:13:25Z) - MCP-Universe: Benchmarking Large Language Models with Real-World Model Context Protocol Servers [86.00932417210477]
MCP-Universeは,実世界のMPPサーバとのインタラクションを通じて,現実的かつ困難なタスクにおいてLLMを評価するために設計された,初めての総合ベンチマークである。
私たちのベンチマークでは、ロケーションナビゲーション、リポジトリ管理、財務分析、3Dデザイン、ブラウザ自動化、Web検索という、11の異なるMSPサーバにまたがる6つのコアドメインを網羅しています。
GPT-5 (43.72%) やGrok-4 (33.33%) やClaude-4.0-Sonnet (29.44%) のようなSOTAモデルでさえ、大幅な性能制限がある。
論文 参考訳(メタデータ) (2025-08-20T13:28:58Z) - MCP-Orchestrated Multi-Agent System for Automated Disinformation Detection [84.75972919995398]
本稿では,関係抽出を用いてニュース記事の偽情報を検出するマルチエージェントシステムを提案する。
提案したエージェントAIシステムは、(i)機械学習エージェント(ロジスティック回帰)、(ii)Wikipedia知識チェックエージェント、(iv)Webスクラッドデータアナライザの4つのエージェントを組み合わせる。
その結果、マルチエージェントアンサンブルはF1スコア0.964で95.3%の精度を達成し、個々のエージェントや従来のアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-08-13T19:14:48Z) - MCP-Zero: Active Tool Discovery for Autonomous LLM Agents [13.005899769943442]
ツール発見の自律性を LLM 自体に復元する,アクティブエージェントフレームワークである MCP-Zero を紹介する。
すべての利用可能なツールで圧倒的なモデルを使用する代わりに、CP-Zeroはエージェントが能率ギャップを積極的に識別し、特定のツールをオンデマンドで要求することを可能にする。
公式の Model-Context-Protocol リポジトリから 308 の MCP サーバと 2,797 ツールの包括的なデータセットである MCP-tools を構築した。
論文 参考訳(メタデータ) (2025-06-01T15:48:53Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。