論文の概要: Cisco Integrated AI Security and Safety Framework Report
- arxiv url: http://arxiv.org/abs/2512.12921v1
- Date: Mon, 15 Dec 2025 02:12:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.502524
- Title: Cisco Integrated AI Security and Safety Framework Report
- Title(参考訳): Cisco 統合 AI Security and Safety Framework レポート
- Authors: Amy Chang, Tiffany Saade, Sanket Mendapara, Adam Swanda, Ankit Garg,
- Abstract要約: 本稿では,CiscoのIntegrated AI Security and Safety Framework(AI Security Framework)について述べる。
このフレームワークは、AIリスクの全範囲を分類、統合、運用するために使用することができる。
モダリティ、エージェント、パイプライン、そしてより広範なエコシステムにわたって、AIセキュリティとAI安全性を統合している。
- 参考スコア(独自算出の注目度): 3.162988913169078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) systems are being readily and rapidly adopted, increasingly permeating critical domains: from consumer platforms and enterprise software to networked systems with embedded agents. While this has unlocked potential for human productivity gains, the attack surface has expanded accordingly: threats now span content safety failures (e.g., harmful or deceptive outputs), model and data integrity compromise (e.g., poisoning, supply-chain tampering), runtime manipulations (e.g., prompt injection, tool and agent misuse), and ecosystem risks (e.g., orchestration abuse, multi-agent collusion). Existing frameworks such as MITRE ATLAS, National Institute of Standards and Technology (NIST) AI 100-2 Adversarial Machine Learning (AML) taxonomy, and OWASP Top 10s for Large Language Models (LLMs) and Agentic AI Applications provide valuable viewpoints, but each covers only slices of this multi-dimensional space. This paper presents Cisco's Integrated AI Security and Safety Framework ("AI Security Framework"), a unified, lifecycle-aware taxonomy and operationalization framework that can be used to classify, integrate, and operationalize the full range of AI risks. It integrates AI security and AI safety across modalities, agents, pipelines, and the broader ecosystem. The AI Security Framework is designed to be practical for threat identification, red-teaming, risk prioritization, and it is comprehensive in scope and can be extensible to emerging deployments in multimodal contexts, humanoids, wearables, and sensory infrastructures. We analyze gaps in prevailing frameworks, discuss design principles for our framework, and demonstrate how the taxonomy provides structure for understanding how modern AI systems fail, how adversaries exploit these failures, and how organizations can build defenses across the AI lifecycle that evolve alongside capability advancements.
- Abstract(参考訳): 人工知能(AI)システムは、消費者プラットフォームやエンタープライズソフトウェアから、組み込みエージェントを備えたネットワークシステムまで、ますます重要な領域に浸透する。
脅威は、コンテンツ安全性の障害(例えば、有害または偽りのアウトプット)、モデルとデータの完全性の妥協(例えば、中毒、サプライチェーンの改ざん)、実行時の操作(例、インジェクション、ツールとエージェントの誤用)、エコシステムのリスク(例、オーケストレーションの悪用、マルチエージェントの共謀)にまたがる。
MITRE ATLAS、National Institute of Standards and Technology (NIST) AI 100-2 Adversarial Machine Learning (AML) 分類、OWASP Top 10s for Large Language Models (LLMs) や Agentic AI Applicationsといった既存のフレームワークは、貴重な視点を提供するが、いずれもこの多次元空間のスライスのみをカバーしている。
本稿では、CiscoのAIセキュリティ安全フレームワーク(AIセキュリティフレームワーク)について紹介する。これは、AIリスクの全範囲を分類、統合、運用するために使用できる、統合されたライフサイクル対応の分類および運用フレームワークである。
モダリティ、エージェント、パイプライン、そしてより広範なエコシステムにわたって、AIセキュリティとAI安全性を統合している。
AI Security Frameworkは、脅威識別、リピート、リスク優先順位付けに実用的なように設計されており、スコープは包括的であり、マルチモーダルなコンテキスト、ヒューマノイド、ウェアラブル、センサーインフラストラクチャにおける新興デプロイメントにも拡張可能である。
私たちは、一般的なフレームワークのギャップを分析し、フレームワークの設計原則について議論し、現代のAIシステムがどのように失敗するか、敵がこれらの障害をどのように悪用するか、そして組織が能力の進歩とともに進化するAIライフサイクル全体にわたって防御を構築することができるかを理解するための構造をどのように提供するかを示します。
関連論文リスト
- Human Society-Inspired Approaches to Agentic AI Security: The 4C Framework [19.576189199576053]
この記事では、社会的なガバナンスにインスパイアされたマルチエージェントAIセキュリティのための4Cフレームワークを紹介します。
AIのセキュリティを、システム中心の保護から、行動の完全性と意図のより広範な保存に移行することで、このフレームワークは、既存のAIセキュリティ戦略を補完する。
論文 参考訳(メタデータ) (2026-02-02T10:45:16Z) - Just Ask: Curious Code Agents Reveal System Prompts in Frontier LLMs [65.6660735371212]
textbftextscJustAskは,インタラクションのみで効果的な抽出戦略を自律的に発見するフレームワークである。
これは、アッパー信頼境界に基づく戦略選択と、原子プローブと高レベルのオーケストレーションにまたがる階層的なスキル空間を用いて、オンライン探索問題として抽出を定式化する。
この結果から,現代のエージェントシステムにおいて,システムプロンプトは致命的ではあるがほぼ無防備な攻撃面であることがわかった。
論文 参考訳(メタデータ) (2026-01-29T03:53:25Z) - Securing Agentic AI Systems -- A Multilayer Security Framework [0.0]
エージェント人工知能(AI)システムのセキュア化には、自律性、意思決定、適応行動によってもたらされる複雑なサイバーリスクに対処する必要がある。
既存のAIセキュリティフレームワークは、これらの課題やエージェントAIのユニークなニュアンスに適切に対処していない。
本研究は,エージェントAIシステムに特化して設計されたライフサイクル対応セキュリティフレームワークを開発する。
論文 参考訳(メタデータ) (2025-12-19T20:22:25Z) - 3D Guard-Layer: An Integrated Agentic AI Safety System for Edge Artificial Intelligence [11.998914775359191]
エッジデバイスに直接AIを組み込むエッジ人工知能の採用は急速に増加している。
ガードレールと安全メカニズムの実装にもかかわらず、このドメインではセキュリティの脆弱性と課題がますます広まっている。
本稿では、3Dを利用して専用の安全層を統合するエージェントAI安全アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-11-11T23:55:09Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - Threat Modeling for AI: The Case for an Asset-Centric Approach [0.23408308015481666]
AIシステムは、自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用することが可能になった。
AIシステムが自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用できるようになったことで、従来のセキュリティアプローチは不足する。
本稿では、脅威モデリングAIシステムのための資産中心の方法論を紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:57:08Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [95.49509269498367]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - A Red Teaming Framework for Securing AI in Maritime Autonomous Systems [0.0]
海上自律システムのAIセキュリティを評価するための,最初のレッドチームフレームワークを提案する。
このフレームワークはマルチパートのチェックリストであり、異なるシステムや要件に合わせて調整できる。
私たちはこのフレームワークが、現実の海上自律システムAI内の多数の脆弱性を明らかにするために、レッドチームにとって非常に効果的であることを実証しています。
論文 参考訳(メタデータ) (2023-12-08T14:59:07Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。