論文の概要: MCIP: Protecting MCP Safety via Model Contextual Integrity Protocol
- arxiv url: http://arxiv.org/abs/2505.14590v1
- Date: Tue, 20 May 2025 16:41:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.585938
- Title: MCIP: Protecting MCP Safety via Model Contextual Integrity Protocol
- Title(参考訳): MCIP:モデル文脈整合性プロトコルによるMCPの安全性保護
- Authors: Huihao Jing, Haoran Li, Wenbin Hu, Qi Hu, Heli Xu, Tianshu Chu, Peizhao Hu, Yangqiu Song,
- Abstract要約: 本稿では,モデルコンテキストプロトコルの安全性を高めるための新しいフレームワークを提案する。
MAESTRO フレームワークをベースとして,まず MCP に欠落する安全機構を解析する。
我々は、MPPシナリオで観察されるさまざまな安全でない振る舞いを捉える、きめ細かい分類法を開発した。
- 参考スコア(独自算出の注目度): 40.43415601554268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Model Context Protocol (MCP) introduces an easy-to-use ecosystem for users and developers, it also brings underexplored safety risks. Its decentralized architecture, which separates clients and servers, poses unique challenges for systematic safety analysis. This paper proposes a novel framework to enhance MCP safety. Guided by the MAESTRO framework, we first analyze the missing safety mechanisms in MCP, and based on this analysis, we propose the Model Contextual Integrity Protocol (MCIP), a refined version of MCP that addresses these gaps.Next, we develop a fine-grained taxonomy that captures a diverse range of unsafe behaviors observed in MCP scenarios. Building on this taxonomy, we develop benchmark and training data that support the evaluation and improvement of LLMs' capabilities in identifying safety risks within MCP interactions. Leveraging the proposed benchmark and training data, we conduct extensive experiments on state-of-the-art LLMs. The results highlight LLMs' vulnerabilities in MCP interactions and demonstrate that our approach substantially improves their safety performance.
- Abstract(参考訳): Model Context Protocol(MCP)は、ユーザと開発者にとって使いやすいエコシステムを導入しているため、探索された安全性のリスクも過小評価されている。
クライアントとサーバを分離する分散アーキテクチャは、システマティックな安全性分析に固有の課題を提起する。
本稿では,MCPの安全性を高めるための新しい枠組みを提案する。
MAESTROフレームワークによって導かれ、まずMDPの安全性メカニズムを解析し、この分析に基づいて、これらのギャップに対処するMCPの洗練されたバージョンであるMCIP(Model Contextual Integrity Protocol)を提案する。
本分類に基づいて,MPP相互作用における安全性リスクの同定において,LCMの能力の評価と改善を支援するベンチマークとトレーニングデータを開発した。
提案したベンチマークとトレーニングデータを利用して、最先端のLCMに関する広範な実験を行う。
その結果,MPP相互作用におけるLSMの脆弱性を浮き彫りにし,本手法が安全性を著しく向上することを示した。
関連論文リスト
- MCP Guardian: A Security-First Layer for Safeguarding MCP-Based AI System [0.0]
MCPガーディアンは、認証、レート制限、ロギング、トレース、Web Application Firewall(WAF)スキャンによるMPPベースの通信を強化するフレームワークである。
弊社のアプローチは、AIアシスタントのためのセキュアでスケーラブルなデータアクセスを促進する。
論文 参考訳(メタデータ) (2025-04-17T08:49:10Z) - Enterprise-Grade Security for the Model Context Protocol (MCP): Frameworks and Mitigation Strategies [0.0]
Model Context Protocol (MCP) は、人工知能(AI)システムのための標準化されたフレームワークを提供する。
本稿では,エンタープライズグレードの緩和フレームワークを提供するため,MPPアーキテクチャの基礎研究と予備的セキュリティアセスメントについて述べる。
論文 参考訳(メタデータ) (2025-04-11T15:25:58Z) - A Survey of Safety on Large Vision-Language Models: Attacks, Defenses and Evaluations [127.52707312573791]
この調査はLVLMの安全性を包括的に分析し、攻撃、防御、評価方法などの重要な側面をカバーする。
我々はこれらの相互関連コンポーネントを統合する統一フレームワークを導入し、LVLMの脆弱性を概観する。
我々は,最新のLVLMであるDeepseek Janus-Pro上で一連の安全性評価を行い,その結果を理論的に分析する。
論文 参考訳(メタデータ) (2025-02-14T08:42:43Z) - SoK: Unifying Cybersecurity and Cybersafety of Multimodal Foundation Models with an Information Theory Approach [58.93030774141753]
MFM(Multimodal foundation model)は、人工知能の大幅な進歩を表す。
本稿では,マルチモーダル学習におけるサイバーセーフティとサイバーセキュリティを概念化する。
我々は、これらの概念をMFMに統一し、重要な脅威を特定するための総合的知識体系化(SoK)を提案する。
論文 参考訳(メタデータ) (2024-11-17T23:06:20Z) - SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - Developing Safe and Responsible Large Language Model : Can We Balance Bias Reduction and Language Understanding in Large Language Models? [2.089112028396727]
本研究では,大規模言語モデルが知識や理解を犠牲にすることなく,安全でバイアスのないアウトプットを生成できるかどうかを考察する。
Safe and Responsible Large Language Model (textbfSR$_textLLM$)を紹介する。
textbfSR$_textLLM$は知識の整合性を保ちながらバイアスを効果的に軽減する。
論文 参考訳(メタデータ) (2024-04-01T18:10:05Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。