論文の概要: Model Context Protocol for Vision Systems: Audit, Security, and Protocol Extensions
- arxiv url: http://arxiv.org/abs/2509.22814v1
- Date: Fri, 26 Sep 2025 18:20:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:38:25.876832
- Title: Model Context Protocol for Vision Systems: Audit, Security, and Protocol Extensions
- Title(参考訳): ビジョンシステムのためのモデルコンテキストプロトコル:監査、セキュリティ、プロトコル拡張
- Authors: Aditi Tiwari, Akshit Bhalla, Darshan Prasad,
- Abstract要約: Model Context Protocol (MCP) は、エージェントとツールのインタラクションのためのスキーマ境界実行モデルを定義する。
これは、ビジョンシステムにおけるMPPのデプロイメントスケール監査である、最初のプロトコルレベルである。
我々は,9次元の合成忠実度にアノテートされた91個の視覚中心型MPPサーバを解析した。
- 参考スコア(独自算出の注目度): 0.4779196219827507
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Model Context Protocol (MCP) defines a schema bound execution model for agent-tool interaction, enabling modular computer vision workflows without retraining. To our knowledge, this is the first protocol level, deployment scale audit of MCP in vision systems, identifying systemic weaknesses in schema semantics, interoperability, and runtime coordination. We analyze 91 publicly registered vision centric MCP servers, annotated along nine dimensions of compositional fidelity, and develop an executable benchmark with validators to detect and categorize protocol violations. The audit reveals high prevalence of schema format divergence, missing runtime schema validation, undeclared coordinate conventions, and reliance on untracked bridging scripts. Validator based testing quantifies these failures, with schema format checks flagging misalignments in 78.0 percent of systems, coordinate convention checks detecting spatial reference errors in 24.6 percent, and memory scope checks issuing an average of 33.8 warnings per 100 executions. Security probes show that dynamic and multi agent workflows exhibit elevated risks of privilege escalation and untyped tool connections. The proposed benchmark and validator suite, implemented in a controlled testbed and to be released on GitHub, establishes a reproducible framework for measuring and improving the reliability and security of compositional vision workflows.
- Abstract(参考訳): Model Context Protocol (MCP) は、エージェントとツールのインタラクションのためのスキーマ境界実行モデルを定義し、再トレーニングせずにモジュール型のコンピュータビジョンワークフローを可能にする。
私たちの知る限り、これは最初のプロトコルレベルであり、ビジョンシステムにおけるMPPのデプロイメントスケール監査であり、スキーマセマンティクス、相互運用性、実行時の調整におけるシステムの弱点を特定します。
我々は,9次元の合成忠実度にアノテートされた91の公的な視覚中心型MPPサーバを解析し,プロトコル違反の検出と分類を行うバリデータを用いた実行可能なベンチマークを開発した。
監査では、スキーマフォーマットのばらつき、実行時のスキーマ検証の欠如、宣言されていない座標規則、追跡されていないブリッジスクリプトへの依存などが明らかになった。
バリデータベースのテストでは、これらの障害を定量化しており、スキーマフォーマットは78.0パーセントのシステムで不正を通知し、コーディネートは24.6%の空間参照エラーを検知し、メモリスコープチェックは100の実行毎に平均33.8警告を発する。
セキュリティ調査では、動的およびマルチエージェントワークフローは特権エスカレーションと非タイプツール接続のリスクが高くなることを示している。
提案されたベンチマークとバリデータスイートは、コントロールされたテストベッドで実装され、GitHubでリリースされ、コンポジションビジョンワークフローの信頼性とセキュリティを計測し改善するための再現可能なフレームワークを確立する。
関連論文リスト
- Diagnose, Localize, Align: A Full-Stack Framework for Reliable LLM Multi-Agent Systems under Instruction Conflicts [75.20929587906228]
LLM(Large Language Model)を利用したマルチエージェントシステム(MAS)は、複雑なタスクにおける協調推論、ツールの使用、役割特化調整を急速に進めている。
しかし、信頼性クリティカルなデプロイメントは、体系的な障害モード、すなわち命令の競合による階層的コンプライアンスによって妨げられている。
論文 参考訳(メタデータ) (2025-09-27T08:43:34Z) - Cumulative Consensus Score: Label-Free and Model-Agnostic Evaluation of Object Detectors in Deployment [3.6178660238507843]
オブジェクト検出モデルをデプロイで評価することは難しい。
実環境における検知器の連続的な監視と比較を可能にするラベルフリーメトリックであるCumulative Consensus Score (CCS)を紹介した。
論文 参考訳(メタデータ) (2025-09-16T09:24:37Z) - VulAgent: Hypothesis-Validation based Multi-Agent Vulnerability Detection [55.957275374847484]
VulAgentは仮説検証に基づくマルチエージェント脆弱性検出フレームワークである。
セマンティクスに敏感なマルチビュー検出パイプラインを実装しており、それぞれが特定の分析の観点から一致している。
平均して、VulAgentは全体的な精度を6.6%改善し、脆弱性のある固定されたコードペアの正確な識別率を最大450%向上させ、偽陽性率を約36%削減する。
論文 参考訳(メタデータ) (2025-09-15T02:25:38Z) - SentinelAgent: Graph-based Anomaly Detection in Multi-Agent Systems [11.497269773189254]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)に適したシステムレベルの異常検出フレームワークを提案する。
本稿では,エージェント間相互作用を動的実行グラフとしてモデル化し,ノード,エッジ,パスレベルでの意味的異常検出を可能にするグラフベースのフレームワークを提案する。
第2に,セキュリティポリシとコンテキスト推論に基づくMAS実行の監視,解析,介入を行うLLMによる監視エージェントである,プラグイン可能なSentinelAgentを導入する。
論文 参考訳(メタデータ) (2025-05-30T04:25:19Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - Code-as-Monitor: Constraint-aware Visual Programming for Reactive and Proactive Robotic Failure Detection [56.66677293607114]
オープンセットのリアクティブかつアクティブな障害検出のためのCode-as-Monitor(CaM)を提案する。
モニタリングの精度と効率を高めるために,制約関連エンティティを抽象化する制約要素を導入する。
実験により、CaMは28.7%高い成功率を達成し、厳しい乱れの下で実行時間を31.8%短縮することが示された。
論文 参考訳(メタデータ) (2024-12-05T18:58:27Z) - CryptoFormalEval: Integrating LLMs and Formal Verification for Automated Cryptographic Protocol Vulnerability Detection [41.94295877935867]
我々は,新たな暗号プロトコルの脆弱性を自律的に識別する大規模言語モデルの能力を評価するためのベンチマークを導入する。
私たちは、新しい、欠陥のある通信プロトコルのデータセットを作成し、AIエージェントが発見した脆弱性を自動的に検証する方法を設計しました。
論文 参考訳(メタデータ) (2024-11-20T14:16:55Z) - Towards Auto-Modeling of Formal Verification for NextG Protocols: A
Multimodal cross- and self-attention Large Language Model Approach [3.9155346446573502]
本稿では,5GおよびNextGプロトコル(AVRE)のための実世界プロンプトを用いた形式検証の自動モデリングを提案する。
AVREは次世代通信プロトコル(NextG)の正式な検証のために設計された新しいシステムである。
論文 参考訳(メタデータ) (2023-12-28T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。