論文の概要: The Attack and Defense Landscape of Agentic AI: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2603.11088v1
- Date: Wed, 11 Mar 2026 05:25:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.506301
- Title: The Attack and Defense Landscape of Agentic AI: A Comprehensive Survey
- Title(参考訳): エージェントAIの攻撃と防衛の景観:包括的調査
- Authors: Juhee Kim, Xiaoyuan Liu, Zhun Wang, Shi Qiu, Bo Li, Wenbo Guo, Dawn Song,
- Abstract要約: 大規模言語モデルと非AIシステムコンポーネントを組み合わせたAIエージェントは、現実世界のアプリケーションで急速に出現している。
本稿では,AIエージェントのセキュリティに関する最初の体系的かつ包括的な調査について述べる。
- 参考スコア(独自算出の注目度): 46.278608570660005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents that combine large language models with non-AI system components are rapidly emerging in real-world applications, offering unprecedented automation and flexibility. However, this unprecedented flexibility introduces complex security challenges fundamentally different from those in traditional software systems. This paper presents the first systematic and comprehensive survey of AI agent security, including an analysis of the design space, attack landscape, and defense mechanisms for secure AI agent systems. We further conduct case studies to point out existing gaps in securing agentic AI systems and identify open challenges in this emerging domain. Our work also introduces the first systematic framework for understanding the security risks and defense strategies of AI agents, serving as a foundation for building both secure agentic systems and advancing research in this critical area.
- Abstract(参考訳): 大規模言語モデルと非AIシステムコンポーネントを組み合わせたAIエージェントは、現実のアプリケーションに急速に登場し、前例のない自動化と柔軟性を提供する。
しかし、この前例のない柔軟性は、従来のソフトウェアシステムと根本的に異なる、複雑なセキュリティ上の課題をもたらします。
本稿では,セキュアなAIエージェントシステムのための設計空間,アタックランドスケープ,防衛機構の解析を含む,AIエージェントのセキュリティに関する最初の体系的かつ包括的な調査について述べる。
さらに、エージェントAIシステムの確保における既存のギャップを指摘し、この新興領域におけるオープンな課題を特定するためにケーススタディを実施します。
私たちの研究は、AIエージェントのセキュリティリスクと防衛戦略を理解するための最初の体系的なフレームワークも導入しています。
関連論文リスト
- Securing Agentic AI Systems -- A Multilayer Security Framework [0.0]
エージェント人工知能(AI)システムのセキュア化には、自律性、意思決定、適応行動によってもたらされる複雑なサイバーリスクに対処する必要がある。
既存のAIセキュリティフレームワークは、これらの課題やエージェントAIのユニークなニュアンスに適切に対処していない。
本研究は,エージェントAIシステムに特化して設計されたライフサイクル対応セキュリティフレームワークを開発する。
論文 参考訳(メタデータ) (2025-12-19T20:22:25Z) - Systems Security Foundations for Agentic Computing [21.600611396864114]
本稿では,AIモデルではなく,システム全体のエンドツーエンドのセキュリティ特性について検討する。
主要なゴールは、AIエージェントの文脈で従来のセキュリティ原則を適用する際に、研究上の課題がどこから生じるかを調べることである。
論文 参考訳(メタデータ) (2025-12-01T05:28:59Z) - Agentic AI Security: Threats, Defenses, Evaluation, and Open Challenges [14.546961299604554]
大規模言語モデル(LLM)を利用したエージェントAIシステムは、自動化のための強力で柔軟なプラットフォームとして出現している。
ウェブ、ソフトウェア、物理的な環境にまたがってタスクを自律的に実行する能力は、新しい、そして増幅されたセキュリティリスクを生み出します。
この調査はエージェントAI特有の脅威の分類を概説し、最近のベンチマークと評価手法をレビューし、防衛戦略について議論する。
論文 参考訳(メタデータ) (2025-10-27T21:48:11Z) - A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems [53.37728204835912]
既存のAIシステムは、デプロイ後も静的な手作業による構成に依存している。
近年,インタラクションデータと環境フィードバックに基づいてエージェントシステムを自動拡張するエージェント進化手法が研究されている。
この調査は、自己進化型AIエージェントの体系的な理解を研究者や実践者に提供することを目的としている。
論文 参考訳(メタデータ) (2025-08-10T16:07:32Z) - Threat Modeling for AI: The Case for an Asset-Centric Approach [0.23408308015481666]
AIシステムは、自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用することが可能になった。
AIシステムが自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用できるようになったことで、従来のセキュリティアプローチは不足する。
本稿では、脅威モデリングAIシステムのための資産中心の方法論を紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:57:08Z) - Open Challenges in Multi-Agent Security: Towards Secure Systems of Interacting AI Agents [0.0]
分散AIエージェントはすぐにインターネットプラットフォーム間で対話し、従来のサイバーセキュリティやAI安全フレームワークを超えたセキュリティ上の課題を生み出す。
textbfmulti-agent Securityは、分散化されたAIエージェントのネットワークを、そのインタラクションを通じて出現または増幅する脅威に対して保護する、新たな分野である。
論文 参考訳(メタデータ) (2025-05-04T12:03:29Z) - Multi-Agent Risks from Advanced AI [90.74347101431474]
先進的なAIのマルチエージェントシステムは、新規で未発見のリスクを生じさせる。
エージェントのインセンティブに基づく3つの重要な障害モードと7つの重要なリスク要因を同定する。
各リスクのいくつかの重要な事例と、それらを緩和するための有望な方向性を強調します。
論文 参考訳(メタデータ) (2025-02-19T23:03:21Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。