論文の概要: Compatibility at a Cost: Systematic Discovery and Exploitation of MCP Clause-Compliance Vulnerabilities
- arxiv url: http://arxiv.org/abs/2603.10163v1
- Date: Tue, 10 Mar 2026 18:57:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.65964
- Title: Compatibility at a Cost: Systematic Discovery and Exploitation of MCP Clause-Compliance Vulnerabilities
- Title(参考訳): コストにおける適合性:MPPクローズ・コンプライアンス・脆弱性の体系的発見と爆発
- Authors: Nanzi Yang, Weiheng Bai, Kangjie Lu,
- Abstract要約: Model Context Protocol(MCP)は、AIエージェントが外部ツールやデータソースとどのように接続するかを統一する相互運用性標準である。
多様なAIエージェントと互換性を持つため、MPP仕様は、多くの動作制約をオプションの節に緩和し、SDK実装の誤用につながる。
我々は,この新たな攻撃面を多言語MPP SDKで解析するための最初の体系的フレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.166560071380621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Model Context Protocol (MCP) is a recently proposed interoperability standard that unifies how AI agents connect with external tools and data sources. By defining a set of common client-server message exchange clauses, MCP replaces fragmented integrations with a standardized, plug-and-play framework. However, to be compatible with diverse AI agents, the MCP specification relaxes many behavioral constraints into optional clauses, leading to misuse-prone SDK implementation. We identify it as a new attack surface that allows adversaries to achieve multiple attacks (e.g, silent prompt injection, DoS, etc.), named as \emph{compatibility-abusing attacks}. In this work, we present the first systematic framework for analyzing this new attack surface across multi-language MCP SDKs. First, we construct a universal and language-agnostic intermediate representation (IR) generator that normalizes SDKs of different languages. Next, based on the new IR, we propose auditable static analysis with LLM-guided semantic reasoning for cross-language/clause compliance analysis. Third, by formalizing the attack semantics of the MCP clauses, we build three attack modalities and develop a modality-guided pipeline to uncover exploitable non-compliance issues.
- Abstract(参考訳): Model Context Protocol(MCP)は、AIエージェントが外部ツールやデータソースとどのように接続するかを統一する、最近提案された相互運用性標準である。
共通のクライアント/サーバのメッセージ交換条項を定義することで、MPPは断片化された統合を標準化されたプラグイン・アンド・プレイフレームワークで置き換える。
しかし、多様なAIエージェントと互換性があるため、MPP仕様は、多くの動作制約をオプションの節に緩和し、SDK実装の誤用につながる。
我々は、敵が複数の攻撃(サイレント・プロンプト・インジェクション、DoSなど)を行える新しい攻撃面として認識する。
本研究では,この新たな攻撃面を多言語 MCP SDK で解析するための最初の体系的フレームワークを提案する。
まず、異なる言語のSDKを正規化する、普遍的で言語に依存しない中間表現(IR)ジェネレータを構築する。
次に,新しいIRをベースとして,LLM誘導型意味推論による言語間/クラス間のコンプライアンス解析の監査可能な静的解析を提案する。
第三に、MPP節の攻撃セマンティクスを形式化し、3つの攻撃モダリティを構築し、悪用可能な非コンプライアンス問題を明らかにするためのモダリティ誘導パイプラインを開発する。
関連論文リスト
- Multi-Paradigm Collaborative Adversarial Attack Against Multi-Modal Large Language Models [67.45032003041399]
本稿では,MLLMに対する敵例の転送可能性を高めるために,MPCAttack(Multi-Paradigm Collaborative Attack)フレームワークを提案する。
MPCOは異なるパラダイム表現の重要性を適応的にバランスさせ、グローバルな最適化を導く。
我々のソリューションは、オープンソースおよびクローズドソースMLLMに対する標的および未ターゲットの攻撃において、常に最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2026-03-05T06:01:26Z) - AJAR: Adaptive Jailbreak Architecture for Red-teaming [1.356919241968803]
AJARは概念実証フレームワークであり、"赤チーム"と"アクションセキュリティ"のギャップを埋めるように設計されている。
AJARは実行ループから逆ロジックを分離し、X-Teamingのような最先端のアルゴリズムを標準化されたプラグイン・アンド・プレイサービスとしてカプセル化する。
AJARは、この出現する攻撃面の標準化された環境対応評価を容易にするために、オープンソース化されている。
論文 参考訳(メタデータ) (2026-01-16T03:30:40Z) - BackdoorAgent: A Unified Framework for Backdoor Attacks on LLM-based Agents [58.83028403414688]
大規模言語モデル(LLM)エージェントは、計画、メモリ、ツールの使用を組み合わせた多段階ワークフローを通じてタスクを実行する。
エージェントワークフローの特定のステージに注入されたバックドアトリガーは、複数の中間状態を通して持続し、下流出力に悪影響を及ぼす可能性がある。
LLMエージェントにおけるバックドア脅威を統一したエージェント中心のビューを提供するモジュールおよびステージアウェアフレームワークである textbfBackdoorAgent を提案する。
論文 参考訳(メタデータ) (2026-01-08T03:49:39Z) - Systematization of Knowledge: Security and Safety in the Model Context Protocol Ecosystem [0.0]
Model Context Protocol(MCP)は、大規模言語モデルを外部データやツールに接続するためのデファクトスタンダードとして登場した。
本稿では,MCP生態系のリスクを分類し,敵のセキュリティ脅威と安全リスクを区別する。
マルチエージェント環境において、"コンテキスト"を兵器化して、不正な操作をトリガーする方法を実証する。
論文 参考訳(メタデータ) (2025-12-09T06:39:21Z) - MCPGuard : Automatically Detecting Vulnerabilities in MCP Servers [16.620755774987774]
Model Context Protocol(MCP)は、LLM(Large Language Models)と外部データソースとツールのシームレスな統合を可能にする標準化されたインターフェースとして登場した。
本稿では,3つの主要な脅威カテゴリを識別し,MCPベースのシステムのセキュリティ状況を体系的に解析する。
論文 参考訳(メタデータ) (2025-10-27T05:12:51Z) - Diagnose, Localize, Align: A Full-Stack Framework for Reliable LLM Multi-Agent Systems under Instruction Conflicts [75.20929587906228]
LLM(Large Language Model)を利用したマルチエージェントシステム(MAS)は、複雑なタスクにおける協調推論、ツールの使用、役割特化調整を急速に進めている。
しかし、信頼性クリティカルなデプロイメントは、体系的な障害モード、すなわち命令の競合による階層的コンプライアンスによって妨げられている。
論文 参考訳(メタデータ) (2025-09-27T08:43:34Z) - Rethinking Testing for LLM Applications: Characteristics, Challenges, and a Lightweight Interaction Protocol [83.83217247686402]
大言語モデル(LLM)は、単純なテキストジェネレータから、検索強化、ツール呼び出し、マルチターンインタラクションを統合する複雑なソフトウェアシステムへと進化してきた。
その固有の非決定主義、ダイナミズム、文脈依存は品質保証に根本的な課題をもたらす。
本稿では,LLMアプリケーションを3層アーキテクチャに分解する: textbftextitSystem Shell Layer, textbftextitPrompt Orchestration Layer, textbftextitLLM Inference Core。
論文 参考訳(メタデータ) (2025-08-28T13:00:28Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。