論文の概要: A Survey of Agentic AI and Cybersecurity: Challenges, Opportunities and Use-case Prototypes
- arxiv url: http://arxiv.org/abs/2601.05293v1
- Date: Thu, 08 Jan 2026 02:46:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.732369
- Title: A Survey of Agentic AI and Cybersecurity: Challenges, Opportunities and Use-case Prototypes
- Title(参考訳): エージェントAIとサイバーセキュリティに関する調査 : 課題,機会,ユースケースのプロトタイプ
- Authors: Sahaya Jestus Lazer, Kshitiz Aryal, Maanak Gupta, Elisa Bertino,
- Abstract要約: Agentic AIは、単一ステップ生成モデルから、長期的タスクに対する推論、計画、行動、適応が可能なシステムへの重要な転換点である。
本調査は,サイバーセキュリティにおけるエージェントAIの影響について検討する。
- 参考スコア(独自算出の注目度): 7.02443431688472
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Agentic AI marks an important transition from single-step generative models to systems capable of reasoning, planning, acting, and adapting over long-lasting tasks. By integrating memory, tool use, and iterative decision cycles, these systems enable continuous, autonomous workflows in real-world environments. This survey examines the implications of agentic AI for cybersecurity. On the defensive side, agentic capabilities enable continuous monitoring, autonomous incident response, adaptive threat hunting, and fraud detection at scale. Conversely, the same properties amplify adversarial power by accelerating reconnaissance, exploitation, coordination, and social-engineering attacks. These dual-use dynamics expose fundamental gaps in existing governance, assurance, and accountability mechanisms, which were largely designed for non-autonomous and short-lived AI systems. To address these challenges, we survey emerging threat models, security frameworks, and evaluation pipelines tailored to agentic systems, and analyze systemic risks including agent collusion, cascading failures, oversight evasion, and memory poisoning. Finally, we present three representative use-case implementations that illustrate how agentic AI behaves in practical cybersecurity workflows, and how design choices shape reliability, safety, and operational effectiveness.
- Abstract(参考訳): Agentic AIは、単一ステップ生成モデルから、長期的タスクに対する推論、計画、行動、適応が可能なシステムへの重要な転換点である。
メモリ、ツールの使用、反復的な意思決定サイクルを統合することで、これらのシステムは現実の環境で継続的かつ自律的なワークフローを可能にする。
本調査は,サイバーセキュリティにおけるエージェントAIの影響について検討する。
防御面では、エージェント機能は継続的監視、自律的なインシデント応答、適応的な脅威狩り、大規模不正検出を可能にする。
逆に、同じ性質は、偵察、搾取、調整、社会工学的攻撃を加速することで敵の力を増幅する。
これらのデュアルユース・ダイナミクスは、非自律的で短命なAIシステムのために主に設計された、既存のガバナンス、保証、説明責任メカニズムの根本的なギャップを露呈する。
これらの課題に対処するために,エージェントシステムに適した新興脅威モデル,セキュリティフレームワーク,評価パイプラインを調査し,エージェントの共謀,カスケード障害,監視回避,メモリ中毒などのシステムリスクを分析した。
最後に、エージェントAIが実際のサイバーセキュリティワークフローでどのように振る舞うか、そして設計選択が信頼性、安全性、運用効率をどのように形成するかを示す3つの代表的なユースケース実装を示す。
関連論文リスト
- Agentic AI for Cyber Resilience: A New Security Paradigm and Its System-Theoretic Foundations [20.297163645916157]
サイバーセキュリティは、ファンデーションモデルに基づく人工知能によって根本的に作り直されている。
この章は、予防中心のセキュリティからエージェントサイバーレジリエンスへの移行を主張する。
論文 参考訳(メタデータ) (2025-12-28T11:17:36Z) - The Evolution of Agentic AI in Cybersecurity: From Single LLM Reasoners to Multi-Agent Systems and Autonomous Pipelines [0.0]
サイバーセキュリティはエージェントAIのアーリーアダプターの1つになった。
この調査は、サイバーセキュリティにおけるエージェントAIの5世代分類を提示する。
論文 参考訳(メタデータ) (2025-12-07T05:10:16Z) - OS-Sentinel: Towards Safety-Enhanced Mobile GUI Agents via Hybrid Validation in Realistic Workflows [77.95511352806261]
VLM(Vision-Language Models)を利用したコンピュータ利用エージェントは、モバイルプラットフォームのようなデジタル環境を操作する上で、人間のような能力を実証している。
我々は,明示的なシステムレベルの違反を検出するための形式検証器と,文脈的リスクとエージェント行動を評価するコンテキスト判断器を組み合わせた,新しいハイブリッド安全検出フレームワークOS-Sentinelを提案する。
論文 参考訳(メタデータ) (2025-10-28T13:22:39Z) - Securing Agentic AI: Threat Modeling and Risk Analysis for Network Monitoring Agentic AI System [2.5145802129902664]
MAESTROフレームワークはエージェントAIの脆弱性を公開、評価、排除するために使用された。
プロトタイプエージェントシステムはPython、LangChain、WebSocketでテレメトリを使用して構築、実装された。
論文 参考訳(メタデータ) (2025-08-12T00:14:12Z) - Taming Uncertainty via Automation: Observing, Analyzing, and Optimizing Agentic AI Systems [1.9751175705897066]
大規模言語モデル (LLMs) はエージェントシステムにますます展開され、対話型のLLMエージェントは複雑で、メモリ、ツール、動的プランニングを用いて適応的に実行される。
従来のソフトウェアオブザーバビリティと運用プラクティスは、これらの課題に対処するには不十分です。
本稿ではエージェントAIシステムの動作を観察し、分析し、最適化し、自動化するための総合的なフレームワークであるAgentOpsを紹介する。
論文 参考訳(メタデータ) (2025-07-15T12:54:43Z) - SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - Multi-Agent Risks from Advanced AI [90.74347101431474]
先進的なAIのマルチエージェントシステムは、新規で未発見のリスクを生じさせる。
エージェントのインセンティブに基づく3つの重要な障害モードと7つの重要なリスク要因を同定する。
各リスクのいくつかの重要な事例と、それらを緩和するための有望な方向性を強調します。
論文 参考訳(メタデータ) (2025-02-19T23:03:21Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。