論文の概要: Securing Agentic AI: Threat Modeling and Risk Analysis for Network Monitoring Agentic AI System
- arxiv url: http://arxiv.org/abs/2508.10043v1
- Date: Tue, 12 Aug 2025 00:14:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.045063
- Title: Securing Agentic AI: Threat Modeling and Risk Analysis for Network Monitoring Agentic AI System
- Title(参考訳): エージェントAIのセキュア化:エージェントAIのネットワーク監視における脅威モデリングとリスク分析
- Authors: Pallavi Zambare, Venkata Nikhil Thanikella, Ying Liu,
- Abstract要約: MAESTROフレームワークはエージェントAIの脆弱性を公開、評価、排除するために使用された。
プロトタイプエージェントシステムはPython、LangChain、WebSocketでテレメトリを使用して構築、実装された。
- 参考スコア(独自算出の注目度): 2.5145802129902664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When combining Large Language Models (LLMs) with autonomous agents, used in network monitoring and decision-making systems, this will create serious security issues. In this research, the MAESTRO framework consisting of the seven layers threat modeling architecture in the system was used to expose, evaluate, and eliminate vulnerabilities of agentic AI. The prototype agent system was constructed and implemented, using Python, LangChain, and telemetry in WebSockets, and deployed with inference, memory, parameter tuning, and anomaly detection modules. Two practical threat cases were confirmed as follows: (i) resource denial of service by traffic replay denial-of-service, and (ii) memory poisoning by tampering with the historical log file maintained by the agent. These situations resulted in measurable levels of performance degradation, i.e. telemetry updates were delayed, and computational loads were increased, as a result of poor system adaptations. It was suggested to use a multilayered defense-in-depth approach with memory isolation, validation of planners and anomaly response systems in real-time. These findings verify that MAESTRO is viable in operational threat mapping, prospective risk scoring, and the basis of the resilient system design. The authors bring attention to the importance of the enforcement of memory integrity, paying attention to the adaptation logic monitoring, and cross-layer communication protection that guarantee the agentic AI reliability in adversarial settings.
- Abstract(参考訳): ネットワーク監視と意思決定システムで使用される大規模言語モデル(LLM)と自律エージェントを組み合わせると、深刻なセキュリティ問題が発生する。
本研究では,エージェントAIの脆弱性を公開,評価,排除するために,システム内の7層脅威モデリングアーキテクチャからなるMAESTROフレームワークを使用した。
プロトタイプエージェントシステムはPython、LangChain、WebSocketでテレメトリを使用して構築され、推論、メモリ、パラメータチューニング、異常検出モジュールでデプロイされた。
現実的な脅威は2つ確認された。
一 交通機関によるサービス拒否、及び
二 エージェントが管理する履歴記録ファイルを改ざんして記憶を害すること。
これらの状況は測定可能な性能劣化を招き、テレメトリ更新が遅れ、計算負荷が増大した。
メモリアイソレーション, プランナー, 異常応答システムの検証をリアルタイムに行う多層ディフェンス・イン・ディース・アプローチが提案された。
これらの結果から,MAESTROは運用上の脅威マッピング,予測リスクスコアリング,レジリエントシステム設計の基礎として有効であることが確認された。
筆者らは, メモリの完全性, 適応論理モニタリング, 対向的設定におけるエージェントAIの信頼性を保証する層間通信保護の重要性に注意を向けている。
関連論文リスト
- Towards Unifying Quantitative Security Benchmarking for Multi Agent Systems [0.0]
AIシステムの進化 自律エージェントが協力し、情報を共有し、プロトコルを開発することでタスクを委譲するマルチエージェントアーキテクチャをますます展開する。
そのようなリスクの1つはカスケードリスクである。あるエージェントの侵入はシステムを通してカスケードし、エージェント間の信頼を利用して他人を妥協させる。
ACI攻撃では、あるエージェントに悪意のあるインプットまたはツールエクスプロイトが注入され、そのアウトプットを信頼するエージェント間でカスケードの妥協とダウンストリーム効果が増幅される。
論文 参考訳(メタデータ) (2025-07-23T13:51:28Z) - CANDoSA: A Hardware Performance Counter-Based Intrusion Detection System for DoS Attacks on Automotive CAN bus [45.24207460381396]
本稿では,制御領域ネットワーク(CAN)環境向けに設計された新しい侵入検知システム(IDS)を提案する。
RISC-VベースのCAN受信機はgem5シミュレータを用いてシミュレートされ、AES-128暗号化によるCANフレームペイロードをFreeRTOSタスクとして処理する。
結果は、このアプローチがCANセキュリティを大幅に改善し、自動車サイバーセキュリティにおける新たな課題に対処する可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-07-19T20:09:52Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - SentinelAgent: Graph-based Anomaly Detection in Multi-Agent Systems [11.497269773189254]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)に適したシステムレベルの異常検出フレームワークを提案する。
本稿では,エージェント間相互作用を動的実行グラフとしてモデル化し,ノード,エッジ,パスレベルでの意味的異常検出を可能にするグラフベースのフレームワークを提案する。
第2に,セキュリティポリシとコンテキスト推論に基づくMAS実行の監視,解析,介入を行うLLMによる監視エージェントである,プラグイン可能なSentinelAgentを導入する。
論文 参考訳(メタデータ) (2025-05-30T04:25:19Z) - A Scalable Hierarchical Intrusion Detection System for Internet of Vehicles [1.6017263994482716]
Internet of Vehicles(IoV)は、スプーフィングやDistributed Denial of Services(DDoS)攻撃からマルウェアまで、さまざまなサイバー脅威にさらされている。
IoVエコシステムを侵入、悪意のある活動、ポリシー違反、侵入検知システム(IDS)から保護するためには、ネットワークトラフィックを継続的に監視・分析し、潜在的脅威をリアルタイムに特定・緩和することで重要な役割を果たす。
本稿では,IoVネットワークに適した効果的な階層型分類フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T04:30:26Z) - CryptoFormalEval: Integrating LLMs and Formal Verification for Automated Cryptographic Protocol Vulnerability Detection [41.94295877935867]
我々は,新たな暗号プロトコルの脆弱性を自律的に識別する大規模言語モデルの能力を評価するためのベンチマークを導入する。
私たちは、新しい、欠陥のある通信プロトコルのデータセットを作成し、AIエージェントが発見した脆弱性を自動的に検証する方法を設計しました。
論文 参考訳(メタデータ) (2024-11-20T14:16:55Z) - A Hierarchical Framework with Spatio-Temporal Consistency Learning for Emergence Detection in Complex Adaptive Systems [41.055298739292695]
複雑な適応システムのグローバルな特性であるEmergenceは、例えばネットワークレベルのトラフィック混雑など、現実世界の動的システムで広く利用されている。
本稿では,システム表現とエージェント表現を学習することで,これら2つの問題を解決するために,CASの時間的一貫性を備えた階層型フレームワークを提案する。
提案手法は,3つのデータセットに対する従来の手法や深層学習法よりも,検出の難しい動作をよく知ることができる。
論文 参考訳(メタデータ) (2024-01-18T08:55:05Z) - Inter-Domain Fusion for Enhanced Intrusion Detection in Power Systems:
An Evidence Theoretic and Meta-Heuristic Approach [0.0]
ICSネットワークにおけるIDSによる不正な警告は、経済的および運用上の重大な損害をもたらす可能性がある。
本研究は,CPS電力系統における誤警報の事前分布を伴わずに不確実性に対処し,誤警報を低減する手法を提案する。
論文 参考訳(メタデータ) (2021-11-20T00:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。