論文の概要: Cisco Integrated AI Security and Safety Framework Report
- arxiv url: http://arxiv.org/abs/2512.12921v1
- Date: Mon, 15 Dec 2025 02:12:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.502524
- Title: Cisco Integrated AI Security and Safety Framework Report
- Title(参考訳): Cisco 統合 AI Security and Safety Framework レポート
- Authors: Amy Chang, Tiffany Saade, Sanket Mendapara, Adam Swanda, Ankit Garg,
- Abstract要約: 本稿では,CiscoのIntegrated AI Security and Safety Framework(AI Security Framework)について述べる。
このフレームワークは、AIリスクの全範囲を分類、統合、運用するために使用することができる。
モダリティ、エージェント、パイプライン、そしてより広範なエコシステムにわたって、AIセキュリティとAI安全性を統合している。
- 参考スコア(独自算出の注目度): 3.162988913169078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) systems are being readily and rapidly adopted, increasingly permeating critical domains: from consumer platforms and enterprise software to networked systems with embedded agents. While this has unlocked potential for human productivity gains, the attack surface has expanded accordingly: threats now span content safety failures (e.g., harmful or deceptive outputs), model and data integrity compromise (e.g., poisoning, supply-chain tampering), runtime manipulations (e.g., prompt injection, tool and agent misuse), and ecosystem risks (e.g., orchestration abuse, multi-agent collusion). Existing frameworks such as MITRE ATLAS, National Institute of Standards and Technology (NIST) AI 100-2 Adversarial Machine Learning (AML) taxonomy, and OWASP Top 10s for Large Language Models (LLMs) and Agentic AI Applications provide valuable viewpoints, but each covers only slices of this multi-dimensional space. This paper presents Cisco's Integrated AI Security and Safety Framework ("AI Security Framework"), a unified, lifecycle-aware taxonomy and operationalization framework that can be used to classify, integrate, and operationalize the full range of AI risks. It integrates AI security and AI safety across modalities, agents, pipelines, and the broader ecosystem. The AI Security Framework is designed to be practical for threat identification, red-teaming, risk prioritization, and it is comprehensive in scope and can be extensible to emerging deployments in multimodal contexts, humanoids, wearables, and sensory infrastructures. We analyze gaps in prevailing frameworks, discuss design principles for our framework, and demonstrate how the taxonomy provides structure for understanding how modern AI systems fail, how adversaries exploit these failures, and how organizations can build defenses across the AI lifecycle that evolve alongside capability advancements.
- Abstract(参考訳): 人工知能(AI)システムは、消費者プラットフォームやエンタープライズソフトウェアから、組み込みエージェントを備えたネットワークシステムまで、ますます重要な領域に浸透する。
脅威は、コンテンツ安全性の障害(例えば、有害または偽りのアウトプット)、モデルとデータの完全性の妥協(例えば、中毒、サプライチェーンの改ざん)、実行時の操作(例、インジェクション、ツールとエージェントの誤用)、エコシステムのリスク(例、オーケストレーションの悪用、マルチエージェントの共謀)にまたがる。
MITRE ATLAS、National Institute of Standards and Technology (NIST) AI 100-2 Adversarial Machine Learning (AML) 分類、OWASP Top 10s for Large Language Models (LLMs) や Agentic AI Applicationsといった既存のフレームワークは、貴重な視点を提供するが、いずれもこの多次元空間のスライスのみをカバーしている。
本稿では、CiscoのAIセキュリティ安全フレームワーク(AIセキュリティフレームワーク)について紹介する。これは、AIリスクの全範囲を分類、統合、運用するために使用できる、統合されたライフサイクル対応の分類および運用フレームワークである。
モダリティ、エージェント、パイプライン、そしてより広範なエコシステムにわたって、AIセキュリティとAI安全性を統合している。
AI Security Frameworkは、脅威識別、リピート、リスク優先順位付けに実用的なように設計されており、スコープは包括的であり、マルチモーダルなコンテキスト、ヒューマノイド、ウェアラブル、センサーインフラストラクチャにおける新興デプロイメントにも拡張可能である。
私たちは、一般的なフレームワークのギャップを分析し、フレームワークの設計原則について議論し、現代のAIシステムがどのように失敗するか、敵がこれらの障害をどのように悪用するか、そして組織が能力の進歩とともに進化するAIライフサイクル全体にわたって防御を構築することができるかを理解するための構造をどのように提供するかを示します。
関連論文リスト
- 3D Guard-Layer: An Integrated Agentic AI Safety System for Edge Artificial Intelligence [11.998914775359191]
エッジデバイスに直接AIを組み込むエッジ人工知能の採用は急速に増加している。
ガードレールと安全メカニズムの実装にもかかわらず、このドメインではセキュリティの脆弱性と課題がますます広まっている。
本稿では、3Dを利用して専用の安全層を統合するエージェントAI安全アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-11-11T23:55:09Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - Threat Modeling for AI: The Case for an Asset-Centric Approach [0.23408308015481666]
AIシステムは、自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用することが可能になった。
AIシステムが自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用できるようになったことで、従来のセキュリティアプローチは不足する。
本稿では、脅威モデリングAIシステムのための資産中心の方法論を紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:57:08Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。