論文の概要: Securing Agentic AI: Threat Modeling and Risk Analysis for Network Monitoring Agentic AI System
- arxiv url: http://arxiv.org/abs/2508.10043v1
- Date: Tue, 12 Aug 2025 00:14:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.045063
- Title: Securing Agentic AI: Threat Modeling and Risk Analysis for Network Monitoring Agentic AI System
- Title(参考訳): エージェントAIのセキュア化:エージェントAIのネットワーク監視における脅威モデリングとリスク分析
- Authors: Pallavi Zambare, Venkata Nikhil Thanikella, Ying Liu,
- Abstract要約: MAESTROフレームワークはエージェントAIの脆弱性を公開、評価、排除するために使用された。
プロトタイプエージェントシステムはPython、LangChain、WebSocketでテレメトリを使用して構築、実装された。
- 参考スコア(独自算出の注目度): 2.5145802129902664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When combining Large Language Models (LLMs) with autonomous agents, used in network monitoring and decision-making systems, this will create serious security issues. In this research, the MAESTRO framework consisting of the seven layers threat modeling architecture in the system was used to expose, evaluate, and eliminate vulnerabilities of agentic AI. The prototype agent system was constructed and implemented, using Python, LangChain, and telemetry in WebSockets, and deployed with inference, memory, parameter tuning, and anomaly detection modules. Two practical threat cases were confirmed as follows: (i) resource denial of service by traffic replay denial-of-service, and (ii) memory poisoning by tampering with the historical log file maintained by the agent. These situations resulted in measurable levels of performance degradation, i.e. telemetry updates were delayed, and computational loads were increased, as a result of poor system adaptations. It was suggested to use a multilayered defense-in-depth approach with memory isolation, validation of planners and anomaly response systems in real-time. These findings verify that MAESTRO is viable in operational threat mapping, prospective risk scoring, and the basis of the resilient system design. The authors bring attention to the importance of the enforcement of memory integrity, paying attention to the adaptation logic monitoring, and cross-layer communication protection that guarantee the agentic AI reliability in adversarial settings.
- Abstract(参考訳): ネットワーク監視と意思決定システムで使用される大規模言語モデル(LLM)と自律エージェントを組み合わせると、深刻なセキュリティ問題が発生する。
本研究では,エージェントAIの脆弱性を公開,評価,排除するために,システム内の7層脅威モデリングアーキテクチャからなるMAESTROフレームワークを使用した。
プロトタイプエージェントシステムはPython、LangChain、WebSocketでテレメトリを使用して構築され、推論、メモリ、パラメータチューニング、異常検出モジュールでデプロイされた。
現実的な脅威は2つ確認された。
一 交通機関によるサービス拒否、及び
二 エージェントが管理する履歴記録ファイルを改ざんして記憶を害すること。
これらの状況は測定可能な性能劣化を招き、テレメトリ更新が遅れ、計算負荷が増大した。
メモリアイソレーション, プランナー, 異常応答システムの検証をリアルタイムに行う多層ディフェンス・イン・ディース・アプローチが提案された。
これらの結果から,MAESTROは運用上の脅威マッピング,予測リスクスコアリング,レジリエントシステム設計の基礎として有効であることが確認された。
筆者らは, メモリの完全性, 適応論理モニタリング, 対向的設定におけるエージェントAIの信頼性を保証する層間通信保護の重要性に注意を向けている。
関連論文リスト
- Just Ask: Curious Code Agents Reveal System Prompts in Frontier LLMs [65.6660735371212]
textbftextscJustAskは,インタラクションのみで効果的な抽出戦略を自律的に発見するフレームワークである。
これは、アッパー信頼境界に基づく戦略選択と、原子プローブと高レベルのオーケストレーションにまたがる階層的なスキル空間を用いて、オンライン探索問題として抽出を定式化する。
この結果から,現代のエージェントシステムにおいて,システムプロンプトは致命的ではあるがほぼ無防備な攻撃面であることがわかった。
論文 参考訳(メタデータ) (2026-01-29T03:53:25Z) - Multi-Agent Collaborative Intrusion Detection for Low-Altitude Economy IoT: An LLM-Enhanced Agentic AI Framework [60.72591149679355]
低高度経済の急速な拡大により、インターネット・オブ・モノ(LAE-IoT)ネットワークは前例のないセキュリティ上の課題を生んだ。
従来の侵入検知システムは、空中IoT環境のユニークな特徴に対処できない。
LAE-IoTネットワークにおける侵入検出を強化するための大規模言語モデル(LLM)対応エージェントAIフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-25T12:47:25Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - A Survey of Agentic AI and Cybersecurity: Challenges, Opportunities and Use-case Prototypes [7.02443431688472]
Agentic AIは、単一ステップ生成モデルから、長期的タスクに対する推論、計画、行動、適応が可能なシステムへの重要な転換点である。
本調査は,サイバーセキュリティにおけるエージェントAIの影響について検討する。
論文 参考訳(メタデータ) (2026-01-08T02:46:06Z) - The Evolution of Agentic AI in Cybersecurity: From Single LLM Reasoners to Multi-Agent Systems and Autonomous Pipelines [0.0]
サイバーセキュリティはエージェントAIのアーリーアダプターの1つになった。
この調査は、サイバーセキュリティにおけるエージェントAIの5世代分類を提示する。
論文 参考訳(メタデータ) (2025-12-07T05:10:16Z) - Formalizing the Safety, Security, and Functional Properties of Agentic AI Systems [10.734711935895225]
本稿では2つの基礎モデルからなるエージェントAIシステムのためのモデリングフレームワークを提案する。
1つ目はホストエージェントモデルで、ユーザと対話するトップレベルのエンティティを形式化し、タスクを分解し、外部エージェントやツールを活用して実行をオーケストレーションする。
第2のタスクライフサイクルモデルでは、個々のサブタスクの状態と、作成から完了までの遷移を詳述し、タスク管理とエラー処理の詳細なビューを提供します。
論文 参考訳(メタデータ) (2025-10-15T22:02:30Z) - Towards Unifying Quantitative Security Benchmarking for Multi Agent Systems [0.0]
AIシステムの進化 自律エージェントが協力し、情報を共有し、プロトコルを開発することでタスクを委譲するマルチエージェントアーキテクチャをますます展開する。
そのようなリスクの1つはカスケードリスクである。あるエージェントの侵入はシステムを通してカスケードし、エージェント間の信頼を利用して他人を妥協させる。
ACI攻撃では、あるエージェントに悪意のあるインプットまたはツールエクスプロイトが注入され、そのアウトプットを信頼するエージェント間でカスケードの妥協とダウンストリーム効果が増幅される。
論文 参考訳(メタデータ) (2025-07-23T13:51:28Z) - CANDoSA: A Hardware Performance Counter-Based Intrusion Detection System for DoS Attacks on Automotive CAN bus [45.24207460381396]
本稿では,制御領域ネットワーク(CAN)環境向けに設計された新しい侵入検知システム(IDS)を提案する。
RISC-VベースのCAN受信機はgem5シミュレータを用いてシミュレートされ、AES-128暗号化によるCANフレームペイロードをFreeRTOSタスクとして処理する。
結果は、このアプローチがCANセキュリティを大幅に改善し、自動車サイバーセキュリティにおける新たな課題に対処する可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-07-19T20:09:52Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - SentinelAgent: Graph-based Anomaly Detection in Multi-Agent Systems [11.497269773189254]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)に適したシステムレベルの異常検出フレームワークを提案する。
本稿では,エージェント間相互作用を動的実行グラフとしてモデル化し,ノード,エッジ,パスレベルでの意味的異常検出を可能にするグラフベースのフレームワークを提案する。
第2に,セキュリティポリシとコンテキスト推論に基づくMAS実行の監視,解析,介入を行うLLMによる監視エージェントである,プラグイン可能なSentinelAgentを導入する。
論文 参考訳(メタデータ) (2025-05-30T04:25:19Z) - A Scalable Hierarchical Intrusion Detection System for Internet of Vehicles [1.6017263994482716]
Internet of Vehicles(IoV)は、スプーフィングやDistributed Denial of Services(DDoS)攻撃からマルウェアまで、さまざまなサイバー脅威にさらされている。
IoVエコシステムを侵入、悪意のある活動、ポリシー違反、侵入検知システム(IDS)から保護するためには、ネットワークトラフィックを継続的に監視・分析し、潜在的脅威をリアルタイムに特定・緩和することで重要な役割を果たす。
本稿では,IoVネットワークに適した効果的な階層型分類フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T04:30:26Z) - Why Are Web AI Agents More Vulnerable Than Standalone LLMs? A Security Analysis [47.34614558636679]
本研究では,WebAIエージェントの脆弱性の増加に寄与する要因について検討する。
我々は,WebAIエージェントの脆弱性を増幅する3つの重要な要因,(1)ユーザの目標をシステムプロンプトに埋め込んだこと,(2)マルチステップアクション生成,(3)観察能力の3つを特定した。
論文 参考訳(メタデータ) (2025-02-27T18:56:26Z) - CryptoFormalEval: Integrating LLMs and Formal Verification for Automated Cryptographic Protocol Vulnerability Detection [41.94295877935867]
我々は,新たな暗号プロトコルの脆弱性を自律的に識別する大規模言語モデルの能力を評価するためのベンチマークを導入する。
私たちは、新しい、欠陥のある通信プロトコルのデータセットを作成し、AIエージェントが発見した脆弱性を自動的に検証する方法を設計しました。
論文 参考訳(メタデータ) (2024-11-20T14:16:55Z) - A Hierarchical Framework with Spatio-Temporal Consistency Learning for Emergence Detection in Complex Adaptive Systems [41.055298739292695]
複雑な適応システムのグローバルな特性であるEmergenceは、例えばネットワークレベルのトラフィック混雑など、現実世界の動的システムで広く利用されている。
本稿では,システム表現とエージェント表現を学習することで,これら2つの問題を解決するために,CASの時間的一貫性を備えた階層型フレームワークを提案する。
提案手法は,3つのデータセットに対する従来の手法や深層学習法よりも,検出の難しい動作をよく知ることができる。
論文 参考訳(メタデータ) (2024-01-18T08:55:05Z) - Inter-Domain Fusion for Enhanced Intrusion Detection in Power Systems:
An Evidence Theoretic and Meta-Heuristic Approach [0.0]
ICSネットワークにおけるIDSによる不正な警告は、経済的および運用上の重大な損害をもたらす可能性がある。
本研究は,CPS電力系統における誤警報の事前分布を伴わずに不確実性に対処し,誤警報を低減する手法を提案する。
論文 参考訳(メタデータ) (2021-11-20T00:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。