論文の概要: Bridging AI and Software Security: A Comparative Vulnerability Assessment of LLM Agent Deployment Paradigms
- arxiv url: http://arxiv.org/abs/2507.06323v1
- Date: Tue, 08 Jul 2025 18:24:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.356976
- Title: Bridging AI and Software Security: A Comparative Vulnerability Assessment of LLM Agent Deployment Paradigms
- Title(参考訳): ブリッジングAIとソフトウェアセキュリティ: LLMエージェントデプロイメントパラダイムの比較脆弱性評価
- Authors: Tarek Gasmi, Ramzi Guesmi, Ines Belhadj, Jihene Bennaceur,
- Abstract要約: 大規模言語モデル(LLM)エージェントは、AI固有の旧来のソフトウェアドメインにまたがるセキュリティ上の脆弱性に直面している。
本研究では,Function Calling アーキテクチャと Model Context Protocol (MCP) デプロイメントパラダイムの比較評価を通じて,このギャップを埋める。
私たちは7つの言語モデルにわたる3,250の攻撃シナリオをテストし、AI固有の脅威とソフトウェア脆弱性の両方を対象として、シンプルで、構成され、連鎖した攻撃を評価しました。
- 参考スコア(独自算出の注目度): 1.03121181235382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM) agents face security vulnerabilities spanning AI-specific and traditional software domains, yet current research addresses these separately. This study bridges this gap through comparative evaluation of Function Calling architecture and Model Context Protocol (MCP) deployment paradigms using a unified threat classification framework. We tested 3,250 attack scenarios across seven language models, evaluating simple, composed, and chained attacks targeting both AI-specific threats (prompt injection) and software vulnerabilities (JSON injection, denial-of-service). Function Calling showed higher overall attack success rates (73.5% vs 62.59% for MCP), with greater system-centric vulnerability while MCP exhibited increased LLM-centric exposure. Attack complexity dramatically amplified effectiveness, with chained attacks achieving 91-96% success rates. Counterintuitively, advanced reasoning models demonstrated higher exploitability despite better threat detection. Results demonstrate that architectural choices fundamentally reshape threat landscapes. This work establishes methodological foundations for cross-domain LLM agent security assessment and provides evidence-based guidance for secure deployment. Code and experimental materials are available at https: // github. com/ theconsciouslab-ai/llm-agent-security.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、AI固有のソフトウェアドメインと従来のソフトウェアドメインにまたがるセキュリティ上の脆弱性に直面している。
本研究では,統合脅威分類フレームワークを用いた関数呼び出しアーキテクチャとモデルコンテキストプロトコル(MCP)デプロイメントパラダイムの比較評価を通じて,このギャップを橋渡しする。
私たちは7つの言語モデルにわたる3,250の攻撃シナリオをテストし、AI固有の脅威(プロンプトインジェクション)とソフトウェア脆弱性(JSONインジェクション、サービス拒否)をターゲットにした、シンプルで、構成された、連鎖的な攻撃を評価しました。
機能呼び出しは全体の攻撃成功率(MPPでは73.5%対62.59%)が高く、システム中心の脆弱性は大きいが、MPPではLSM中心の露出が増加した。
攻撃の複雑さは劇的に効果を増幅し、連鎖攻撃は91-96%の成功率を達成した。
高度な推論モデルは、より優れた脅威検出にもかかわらず、高い攻撃性を示した。
結果は、アーキテクチャ上の選択が脅威の風景を根本的に再形成することを示しています。
本研究は、クロスドメインLLMエージェントセキュリティアセスメントのための方法論基盤を確立し、セキュアなデプロイメントのためのエビデンスベースのガイダンスを提供する。
コードと実験資料はhttps: // github.comで入手できる。
意識的なlab-ai/llm-agent-security.com/theconsciouslab-ai/llm-agent-security。
関連論文リスト
- ATAG: AI-Agent Application Threat Assessment with Attack Graphs [23.757154032523093]
本稿では,Attack Graphs (ATAG) を用いたAIエージェントアプリケーションThreatアセスメントを提案する。
ATAGは、AIエージェントアプリケーションに関連するセキュリティリスクを体系的に分析するために設計された、新しいフレームワークである。
マルチエージェントアプリケーションにおけるAIエージェント脅威の積極的な識別と緩和を容易にする。
論文 参考訳(メタデータ) (2025-06-03T13:25:40Z) - Investigating the Vulnerability of LLM-as-a-Judge Architectures to Prompt-Injection Attacks [0.0]
大規模言語モデル (LLM) は、機械生成テキストの品質を評価するための評価器 (LLM-as-a-Judge) としてますます採用されている。
本稿では,LPM-as-a-Judgeアーキテクチャの早期注入攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2025-05-19T16:51:12Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - Why Are Web AI Agents More Vulnerable Than Standalone LLMs? A Security Analysis [35.57217841344101]
本研究では,WebAIエージェントの脆弱性の増加に寄与する要因について検討する。
我々は,WebAIエージェントの脆弱性を増幅する3つの重要な要因,(1)ユーザの目標をシステムプロンプトに埋め込んだこと,(2)マルチステップアクション生成,(3)観察能力の3つを特定した。
論文 参考訳(メタデータ) (2025-02-27T18:56:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。