論文の概要: Secure Tool Manifest and Digital Signing Solution for Verifiable MCP and LLM Pipelines
- arxiv url: http://arxiv.org/abs/2601.23132v1
- Date: Fri, 30 Jan 2026 16:22:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.54959
- Title: Secure Tool Manifest and Digital Signing Solution for Verifiable MCP and LLM Pipelines
- Title(参考訳): 検証可能なMPPパイプラインとLCMパイプラインのためのセキュアツールとデジタル署名ソリューション
- Authors: Saeid Jamshidi, Kawser Wazed Nafi, Arghavan Moradi Dakhel, Foutse Khomh, Amin Nikanjam, Mohammad Adnan Hamdaqa,
- Abstract要約: 大規模言語モデル(LLM)は、医療や金融機関のデータ分析のような繊細な分野にますます採用されている。
Model Context Protocol (MCP)のような既存の制御メカニズムは、ツール呼び出しのコンプライアンスポリシーを定義するが、モデルのアクションの検証と透過的な検証は欠如している。
モデルコンテキストプロトコルの構造化およびセキュリティに配慮した拡張であるSecure Tool Manifest and Digital Signing Frameworkを提案する。
- 参考スコア(独自算出の注目度): 5.979408039210097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly adopted in sensitive domains such as healthcare and financial institutions' data analytics; however, their execution pipelines remain vulnerable to manipulation and unverifiable behavior. Existing control mechanisms, such as the Model Context Protocol (MCP), define compliance policies for tool invocation but lack verifiable enforcement and transparent validation of model actions. To address this gap, we propose a novel Secure Tool Manifest and Digital Signing Framework, a structured and security-aware extension of Model Context Protocols. The framework enforces cryptographically signed manifests, integrates transparent verification logs, and isolates model-internal execution metadata from user-visible components to ensure verifiable execution integrity. Furthermore, the evaluation demonstrates that the framework scales nearly linearly (R-squared = 0.998), achieves near-perfect acceptance of valid executions while consistently rejecting invalid ones, and maintains balanced model utilization across execution pipelines.
- Abstract(参考訳): 大規模言語モデル(LLM)は、医療や金融機関のデータ分析のような機密性の高い分野にますます採用されているが、その実行パイプラインは操作や検証不可能な振る舞いに対して脆弱である。
Model Context Protocol (MCP)のような既存の制御メカニズムは、ツール呼び出しのコンプライアンスポリシーを定義するが、モデルのアクションの検証と透過的な検証は欠如している。
このギャップに対処するために,モデルコンテキストプロトコルの構造化されたセキュリティ対応拡張であるSecure Tool Manifest and Digital Signing Frameworkを提案する。
このフレームワークは、暗号的に署名されたマニフェストを実行し、透過的な検証ログを統合し、モデル内部実行メタデータをユーザ可視のコンポーネントから分離し、検証可能な実行整合性を保証する。
さらに、この評価はフレームワークがほぼ線形にスケールすることを示し(R-squared = 0.998)、有効実行をほぼ完全に受け入れると同時に、無効実行を一貫して拒否し、実行パイプライン間のバランスの取れたモデル利用を維持する。
関連論文リスト
- CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - ToolGate: Contract-Grounded and Verified Tool Execution for LLMs [35.000785781403515]
外部ツールを付加した大規模言語モデル(LLM)は、複雑な推論タスクにおいて顕著な機能を示した。
既存のフレームワークは、いつツールが呼び出されるか、結果がコミットされるべきかどうかを決定するために、自然言語の推論に大きく依存している。
textbfToolGateは、論理的安全性保証と検証可能な状態進化を提供するフォワード実行フレームワークである。
論文 参考訳(メタデータ) (2026-01-08T07:56:45Z) - Agentic AI for Autonomous Defense in Software Supply Chain Security: Beyond Provenance to Vulnerability Mitigation [0.0]
本論文は,自律型ソフトウェアサプライチェーンセキュリティに基づくエージェント人工知能(AI)の例を含む。
大規模言語モデル(LLM)ベースの推論、強化学習(RL)、マルチエージェント調整を組み合わせている。
その結果、エージェントAIは、自己防衛的で積極的なソフトウェアサプライチェーンへの移行を促進することが示されている。
論文 参考訳(メタデータ) (2025-12-29T14:06:09Z) - "Show Me You Comply... Without Showing Me Anything": Zero-Knowledge Software Auditing for AI-Enabled Systems [2.2981698355892686]
本稿では,新しいMLOps検証フレームワークであるZKMLOpsを紹介する。
ZKP(Zero-Knowledge Proofs)暗号プロトコルを運用し、証明者が証明者に対して、文が真実であることを納得させることができる。
我々は、金融リスク監査における規制コンプライアンスの研究を通じて、この枠組みの実践性を評価する。
論文 参考訳(メタデータ) (2025-10-30T15:03:32Z) - Verifiable Fine-Tuning for LLMs: Zero-Knowledge Training Proofs Bound to Data Provenance and Policy [0.0]
本稿では,簡潔なゼロ知識証明を生成するプロトコルとシステムであるVerifiable Fine Tuningを提案する。
本システムは,確率的監査と帯域幅制約によって構成されることを示す。
結果から,本システムは実パラメータ効率のよいパイプラインで実現可能であることが示唆された。
論文 参考訳(メタデータ) (2025-10-19T13:33:27Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。