論文の概要: ASTRIDE: A Security Threat Modeling Platform for Agentic-AI Applications
- arxiv url: http://arxiv.org/abs/2512.04785v1
- Date: Thu, 04 Dec 2025 13:32:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.183545
- Title: ASTRIDE: A Security Threat Modeling Platform for Agentic-AI Applications
- Title(参考訳): ASTRIDE:エージェントAIアプリケーションのためのセキュリティ脅威モデリングプラットフォーム
- Authors: Eranga Bandara, Amin Hass, Ross Gore, Sachin Shetty, Ravi Mukkamala, Safdar H. Bouk, Xueping Liang, Ng Wee Keong, Kasun De Zoysa, Aruna Withanage, Nilaan Loganathan,
- Abstract要約: ASTRIDEはAIエージェントベースのシステム向けに開発された自動脅威モデリングプラットフォームである。
脅威モデリングを自動化するため、ASTRIDEは細調整された視覚言語モデルのコンソーシアムとOpenAI-gpt-oss推論LLMを組み合わせた。
我々の評価は、ASTRIDEが次世代インテリジェントシステムに対して正確でスケーラブルで説明可能な脅威モデリングを提供することを示す。
- 参考スコア(独自算出の注目度): 4.5053527030708285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agent-based systems are becoming increasingly integral to modern software architectures, enabling autonomous decision-making, dynamic task execution, and multimodal interactions through large language models (LLMs). However, these systems introduce novel and evolving security challenges, including prompt injection attacks, context poisoning, model manipulation, and opaque agent-to-agent communication, that are not effectively captured by traditional threat modeling frameworks. In this paper, we introduce ASTRIDE, an automated threat modeling platform purpose-built for AI agent-based systems. ASTRIDE extends the classical STRIDE framework by introducing a new threat category, A for AI Agent-Specific Attacks, which encompasses emerging vulnerabilities such as prompt injection, unsafe tool invocation, and reasoning subversion, unique to agent-based applications. To automate threat modeling, ASTRIDE combines a consortium of fine-tuned vision-language models (VLMs) with the OpenAI-gpt-oss reasoning LLM to perform end-to-end analysis directly from visual agent architecture diagrams, such as data flow diagrams(DFDs). LLM agents orchestrate the end-to-end threat modeling automation process by coordinating interactions between the VLM consortium and the reasoning LLM. Our evaluations demonstrate that ASTRIDE provides accurate, scalable, and explainable threat modeling for next-generation intelligent systems. To the best of our knowledge, ASTRIDE is the first framework to both extend STRIDE with AI-specific threats and integrate fine-tuned VLMs with a reasoning LLM to fully automate diagram-driven threat modeling in AI agent-based applications.
- Abstract(参考訳): AIエージェントベースのシステムは、自律的な意思決定、動的タスク実行、大規模言語モデル(LLM)によるマルチモーダルインタラクションを可能にする、現代のソフトウェアアーキテクチャにますます不可欠なものになりつつある。
しかしながら、これらのシステムは、従来の脅威モデリングフレームワークで効果的に捉えられていないインジェクション攻撃、コンテキスト中毒、モデル操作、不透明なエージェント対エージェント通信など、新しい、進化するセキュリティ課題を導入している。
本稿ではAIエージェントベースシステムを対象とした自動脅威モデリングプラットフォームであるASTRIDEを紹介する。
ASTRIDEは新しい脅威カテゴリA for AI Agent-Specific Attacksを導入して、古典的なSTRIDEフレームワークを拡張している。
脅威モデリングを自動化するため、ASTRIDEは細調整された視覚言語モデル(VLM)のコンソーシアムとOpenAI-gpt-oss推論LLMを組み合わせて、データフロー図(DFD)のような視覚エージェントアーキテクチャ図から直接エンドツーエンドの分析を行う。
LLMエージェントは、VLMコンソーシアムとLLMの相互作用を調整することによって、エンドツーエンドの脅威モデリング自動化プロセスのオーケストレーションを行う。
我々の評価は、ASTRIDEが次世代インテリジェントシステムに対して正確でスケーラブルで説明可能な脅威モデリングを提供することを示す。
我々の知る限り、ASTRIDEはSTRIDEをAI固有の脅威に拡張し、微調整されたVLMとLLMを統合し、AIエージェントベースのアプリケーションでダイアグラム駆動の脅威モデリングを完全に自動化する最初のフレームワークです。
関連論文リスト
- A Survey on Agentic Multimodal Large Language Models [84.18778056010629]
エージェントマルチモーダル大言語モデル(Agentic MLLMs)に関する総合的な調査を行う。
我々は,エージェントMLLMの新たなパラダイムを探求し,その概念的基盤を明確にし,従来のMLLMエージェントとの特徴を区別する。
コミュニティのためのこの分野の研究をさらに加速するため、エージェントMLLMを開発するためのオープンソースのトレーニングフレームワーク、トレーニングおよび評価データセットをコンパイルする。
論文 参考訳(メタデータ) (2025-10-13T04:07:01Z) - A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems [53.37728204835912]
既存のAIシステムは、デプロイ後も静的な手作業による構成に依存している。
近年,インタラクションデータと環境フィードバックに基づいてエージェントシステムを自動拡張するエージェント進化手法が研究されている。
この調査は、自己進化型AIエージェントの体系的な理解を研究者や実践者に提供することを目的としている。
論文 参考訳(メタデータ) (2025-08-10T16:07:32Z) - Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - ATAG: AI-Agent Application Threat Assessment with Attack Graphs [23.757154032523093]
本稿では,Attack Graphs (ATAG) を用いたAIエージェントアプリケーションThreatアセスメントを提案する。
ATAGは、AIエージェントアプリケーションに関連するセキュリティリスクを体系的に分析するために設計された、新しいフレームワークである。
マルチエージェントアプリケーションにおけるAIエージェント脅威の積極的な識別と緩和を容易にする。
論文 参考訳(メタデータ) (2025-06-03T13:25:40Z) - AI Agents vs. Agentic AI: A Conceptual Taxonomy, Applications and Challenges [3.7414278978078204]
このレビューは、AIエージェントとエージェントAIを批判的に区別し、構造化された概念分類、アプリケーションマッピング、そして、異なる設計哲学と能力を明らかにするための機会と課題の分析を提供する。
論文 参考訳(メタデータ) (2025-05-15T16:21:33Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。