論文の概要: Enhancing Model Context Protocol (MCP) with Context-Aware Server Collaboration
- arxiv url: http://arxiv.org/abs/2601.11595v1
- Date: Tue, 06 Jan 2026 21:34:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.779972
- Title: Enhancing Model Context Protocol (MCP) with Context-Aware Server Collaboration
- Title(参考訳): コンテキスト対応サーバコラボレーションによるモデルコンテキストプロトコル(MCP)の強化
- Authors: Meenakshi Amulya Jayanti, X. Y. Han,
- Abstract要約: Model Context Protocol (MCP) は、エージェントが外部のツールやサービスと通信するためのフレームワークとして広く使われている。
本研究では,複雑なタスクに要するLCM呼び出し数を削減し,コンテキスト認識型MPPが従来のMPPより優れていることを示す実験を行った。
- 参考スコア(独自算出の注目度): 0.8594140167290097
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Model Context Protocol (MCP) has emerged as a widely used framework for enabling LLM-based agents to communicate with external tools and services. The most common implementation of MCP, proposed by Anthropic, heavily relies on a Large Language Model (LLM) to decompose tasks and issue instructions to servers, which act as stateless executors. In particular, the agents, models, and servers are stateless and do not have access to a global context. However, in tasks involving LLM-driven coordination, it is natural that a Shared Context Store (SCS) could improve the efficiency and coherence of multi-agent workflows by reducing redundancy and enabling knowledge transfer between servers. Thus, in this work, we design and assess the performance of a Context-Aware MCP (CA-MCP) that offloads execution logic to specialized MCP servers that read from and write to a shared context memory, allowing them to coordinate more autonomously in real time. In this design, context management serves as the central mechanism that maintains continuity across task executions by tracking intermediate states and shared variables, thereby enabling persistent collaboration among agents without repeated prompting. We present experiments showing that the CA-MCP can outperform the traditional MCP by reducing the number of LLM calls required for complex tasks and decreasing the frequency of response failures when task conditions are not satisfied, thereby improving overall efficiency and responsiveness. In particular, we conducted experiments on the TravelPlanner and REALM-Bench benchmark datasets and observed statistically significant results indicating the potential advantages of incorporating a shared context store via CA-MCP in LLM-driven multi-agent systems.
- Abstract(参考訳): Model Context Protocol (MCP) は LLM ベースのエージェントが外部ツールやサービスと通信するためのフレームワークとして広く使われている。
Anthropic が提案した MCP の最も一般的な実装は、タスクを分解してサーバに命令を発行する大規模言語モデル (LLM) に大きく依存している。
特にエージェント、モデル、サーバはステートレスであり、グローバルなコンテキストにアクセスできない。
しかし、LLM駆動の協調を含むタスクでは、共有コンテキストストア(SCS)が冗長性を低減し、サーバ間の知識伝達を可能にすることで、マルチエージェントワークフローの効率とコヒーレンスを向上させることは自然である。
そこで本研究では,実行ロジックを共有コンテキストメモリに読み書きする専用MPPサーバにオフロードするコンテキスト対応MPP(CA-MCP)の性能を設計し,評価する。
この設計において、コンテキスト管理は、中間状態と共有変数を追跡することでタスク実行間の連続性を維持する中心的なメカニズムとして機能し、繰り返しプロンプトすることなくエージェント間の永続的な協調を可能にする。
本稿では,複雑なタスクに要するLCM呼び出し数を減らし,タスク条件が満たされていない場合に応答障害の発生頻度を減らし,全体の効率と応答性を向上させることにより,CA-MCPが従来のMPPより優れていることを示す実験を行った。
特に、TravelPlannerおよびREALM-Benchベンチマークデータセットの実験を行い、LCM駆動マルチエージェントシステムにCA-MCPを介して共有コンテキストストアを組み込むことの潜在的な利点を示す統計的に有意な結果を得た。
関連論文リスト
- MCP-SafetyBench: A Benchmark for Safety Evaluation of Large Language Models with Real-World MCP Servers [17.96465932881902]
我々は,実際のMPPサーバ上に構築された総合ベンチマークであるMPP-SafetyBenchを紹介する。
サーバ、ホスト、ユーザサイドにまたがる20のMPP攻撃タイプを統一した分類を組み込んでいる。
MCP-SafetyBench を用いて、主要なオープンソース LLM とクローズドソース LLM を体系的に評価する。
論文 参考訳(メタデータ) (2025-12-17T08:00:32Z) - Multi-agent In-context Coordination via Decentralized Memory Retrieval [39.106914463842685]
多様なデータセットに基づいてトレーニングされた大規模なトランスフォーマーモデルは、これまで目に見えなかったタスクにおいて、印象的な数ショットのパフォーマンスを誇示している。
MARL(Multi-Agent Reinforcement Learning)では、エージェントが共通の目標に向かって調整しなければならない。
高速適応によるコーディネーション向上を目的とした新しい手法である分散メモリ検索(MAICC)によるマルチエージェントインコンテキストコーディネーションを提案する。
論文 参考訳(メタデータ) (2025-11-13T07:08:31Z) - Network and Systems Performance Characterization of MCP-Enabled LLM Agents [2.952262068394116]
Model Context Protocol(MCP)は、大規模な言語モデル(LLM)が外部ツールやサービスと対話するための標準化された方法を提供するため、AIコミュニティ内で最近注目を集めている。
本稿では,LCMを用いたMPP対応インタラクションの計測に基づく解析を行い,性能,性能,コストのトレードオフを明らかにした。
論文 参考訳(メタデータ) (2025-10-20T05:13:47Z) - Multi-Agent Tool-Integrated Policy Optimization [67.12841355267678]
大規模言語モデル(LLM)は、知識集約的かつ複雑な推論タスクに対して、多ターンツール統合計画にますます依存している。
既存の実装は通常、単一のエージェントに依存するが、コンテキスト長とノイズの多いツールレスポンスに悩まされる。
ツール統合マルチエージェントフレームワークの効果的な強化学習をサポートする方法はない。
論文 参考訳(メタデータ) (2025-10-06T10:44:04Z) - ContextNav: Towards Agentic Multimodal In-Context Learning [85.05420047017513]
ContextNavは、自動検索のスケーラビリティと人間のようなキュレーションの品質と適応性を統合するエージェントフレームワークである。
リソースを意識したマルチモーダル埋め込みパイプラインを構築し、検索可能なベクトルデータベースを維持し、エージェント検索と構造アライメントを適用して、ノイズ耐性のあるコンテキストを構築する。
実験の結果、ContextNavはさまざまなデータセットで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-10-06T07:49:52Z) - MCP-Bench: Benchmarking Tool-Using LLM Agents with Complex Real-World Tasks via MCP Servers [24.6512259539754]
MCP-Benchは、大規模言語モデル(LLM)を現実的なマルチステップタスクで評価するためのベンチマークである。
MCP-Bench は Model Context Protocol (MCP) 上に構築されており、金融、旅行、科学計算、学術検索などの分野にまたがる250のツールにまたがる28のライブ MCP サーバに LLM を接続している。
論文 参考訳(メタデータ) (2025-08-28T05:58:57Z) - MCP-Universe: Benchmarking Large Language Models with Real-World Model Context Protocol Servers [86.00932417210477]
MCP-Universeは,実世界のMPPサーバとのインタラクションを通じて,現実的かつ困難なタスクにおいてLLMを評価するために設計された,初めての総合ベンチマークである。
私たちのベンチマークでは、ロケーションナビゲーション、リポジトリ管理、財務分析、3Dデザイン、ブラウザ自動化、Web検索という、11の異なるMSPサーバにまたがる6つのコアドメインを網羅しています。
GPT-5 (43.72%) やGrok-4 (33.33%) やClaude-4.0-Sonnet (29.44%) のようなSOTAモデルでさえ、大幅な性能制限がある。
論文 参考訳(メタデータ) (2025-08-20T13:28:58Z) - RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z) - Modeling Response Consistency in Multi-Agent LLM Systems: A Comparative Analysis of Shared and Separate Context Approaches [0.0]
本稿では,文脈制約,ノイズ,エージェント間の依存性がシステム性能に与える影響を評価する指標として,応答一貫性指数(RCI)を導入する。
提案手法は,メモリ制約とノイズ管理の相互作用に着目した既存研究と異なる。
論文 参考訳(メタデータ) (2025-04-09T21:54:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。