論文の概要: Lifecycle-Integrated Security for AI-Cloud Convergence in Cyber-Physical Infrastructure
- arxiv url: http://arxiv.org/abs/2602.23397v1
- Date: Thu, 26 Feb 2026 05:32:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.073733
- Title: Lifecycle-Integrated Security for AI-Cloud Convergence in Cyber-Physical Infrastructure
- Title(参考訳): サイバー物理インフラにおけるAIクラウド収束のためのライフサイクル統合セキュリティ
- Authors: S M Zia Ur Rashid, Deepa Gurung, Sonam Raj Gupta, Suman Rath,
- Abstract要約: AIガバナンス、クラウドセキュリティ、産業制御システムの標準は、統一された執行なしに交差する。
i) 明示的な攻撃能力層を中心に構築されたライフサイクルステージの脅威分類にこれらのフレームワークを合成し、(ii) セキュアデータファクトリ、強化モデルサプライチェーン、ランタイムガバナンス層にまたがる統一参照アーキテクチャを提案し、(iii) ハイブリッドトランスミッションシステムオペレーターシナリオであるGrid-Guardを通じてケーススタディを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The convergence of Artificial Intelligence (AI) inference pipelines with cloud infrastructure creates a dual attack surface where cloud security standards and AI governance frameworks intersect without unified enforcement mechanisms. AI governance, cloud security, and industrial control system standards intersect without unified enforcement, leaving hybrid deployments exposed to cross-layer attacks that threaten safety-critical operations. This paper makes three primary contributions: (i) we synthesize these frameworks into a lifecycle-staged threat taxonomy structured around explicit attacker capability tiers, (ii) we propose a Unified Reference Architecture spanning a Secure Data Factory, a hardened model supply chain, and a runtime governance layer, (iii) we present a case study through Grid-Guard, a hybrid Transmission System Operator scenario in which coordinated defenses drawn from NIST AI RMF, MITRE ATLAS, OWASP AI Exchange and GenAI, CSA MAESTRO, and NERC CIP defeat a multi-tier physical-financial manipulation campaign without human intervention. Controls are mapped against all five frameworks and current NERC CIP standards to demonstrate that a single cloud-native architecture can simultaneously satisfy AI governance, adversarial robustness, agentic safety, and industrial regulatory compliance obligations.
- Abstract(参考訳): 人工知能(AI)推論パイプラインとクラウドインフラストラクチャの収束は、クラウドセキュリティ標準とAIガバナンスフレームワークが統一的な執行機構なしで交わる、二重の攻撃面を生み出します。
AIガバナンス、クラウドセキュリティ、産業制御システムの標準は、統一された執行なしに交差し、安全なクリティカルな操作を脅かす層間攻撃に曝されるハイブリッドデプロイメントを残します。
主な貢献は3つある。
i)これらのフレームワークを、明示的な攻撃能力層を中心に構築されたライフサイクルステージの脅威分類に合成する。
(II)セキュアデータファクトリ、強化モデルサプライチェーン、ランタイムガバナンス層にまたがる統一参照アーキテクチャを提案する。
3) NIST AI RMF, MITRE ATLAS,OWASP AI Exchange and GenAI, CSA MAESTRO, NERC CIP が引き起こした協調防御が、人間の介入なしに多層的な物理的金融操作キャンペーンを倒すハイブリッドトランスミッション・システム・オペレーターのシナリオであるGrid-Guardによるケーススタディを提示する。
コントロールは5つのフレームワークすべてと現在のNERC CIP標準に対してマッピングされ、単一のクラウドネイティブアーキテクチャがAIガバナンス、対向ロバスト性、エージェント安全性、産業規制コンプライアンス義務を同時に満足できることを実証する。
関連論文リスト
- DMind-3: A Sovereign Edge--Local--Cloud AI System with Controlled Deliberation and Correction-Based Tuning for Safe, Low-Latency Transaction Execution [4.764379121944152]
DMind-3は、Web3環境における不可逆な金融実行を確保するために設計された、エッジローカルなインテリジェンススタックである。
プライバシの感度と不確実性に基づく経路計算へのポリシー駆動選択的オフロードを提案する。
大規模な評価では、DMind-3はプロトコル制約されたタスクにおいて、93.7%のマルチターン成功率を達成している。
論文 参考訳(メタデータ) (2026-02-12T07:03:08Z) - ORCA -- An Automated Threat Analysis Pipeline for O-RAN Continuous Development [57.61878484176942]
Open-Radio Access Network (O-RAN)は、多くのソフトウェアコンポーネントをクラウドのようなデプロイメントに統合し、これまで考えられていなかったセキュリティ脅威に無線アクセスネットワークを開放する。
現在の脆弱性評価の実践は、しばしば手動、労働集約、主観的な調査に依存しており、脅威分析の不整合につながる。
人間の介入や関連するバイアスを最小限に抑えるために,自然言語処理(NLP)を活用する自動パイプラインを提案する。
論文 参考訳(メタデータ) (2026-01-20T07:31:59Z) - Cisco Integrated AI Security and Safety Framework Report [3.162988913169078]
本稿では,CiscoのIntegrated AI Security and Safety Framework(AI Security Framework)について述べる。
このフレームワークは、AIリスクの全範囲を分類、統合、運用するために使用することができる。
モダリティ、エージェント、パイプライン、そしてより広範なエコシステムにわたって、AIセキュリティとAI安全性を統合している。
論文 参考訳(メタデータ) (2025-12-15T02:12:12Z) - AAGATE: A NIST AI RMF-Aligned Governance Platform for Agentic AI [2.430812125419517]
AAGATEは、自律的で言語モデル駆動のエージェントが本番環境で引き起こす、ユニークなセキュリティとガバナンスの課題に対処する。
ゼロトラストサービスメッシュ、説明可能なポリシエンジン、行動分析、分散説明責任フックが組み込まれている。
論文 参考訳(メタデータ) (2025-10-29T18:06:28Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - Governable AI: Provable Safety Under Extreme Threat Models [31.36879992618843]
我々は、従来の内部制約から外部に強制された構造コンプライアンスに移行するGAI(Governable AI)フレームワークを提案する。
GAIフレームワークは、シンプルで信頼性が高く、完全に決定論的で、強力で、柔軟性があり、汎用的なルール執行モジュール(REM)、ガバナンスルール、AIによる妥協やサブバージョンに対するエンドツーエンドの保護を提供する、統制可能なセキュアなスーパープラットフォーム(GSSP)で構成されている。
論文 参考訳(メタデータ) (2025-08-28T04:22:59Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Generative AI-Empowered Secure Communications in Space-Air-Ground Integrated Networks: A Survey and Tutorial [107.26005706569498]
宇宙航空地上統合ネットワーク(SAGIN)は、その特性上、前例のないセキュリティ上の課題に直面している。
Generative AI(GAI)は、データを合成し、セマンティクスを理解し、自律的な決定を行うことで、SAGINセキュリティを保護できる変革的アプローチである。
論文 参考訳(メタデータ) (2025-08-04T01:42:57Z) - Thought Purity: A Defense Framework For Chain-of-Thought Attack [16.56580534764132]
本稿では,悪意のあるコンテンツに対する抵抗性を高めつつ,操作効率を保ちつつ,その耐性を高めるフレームワークであるThought Purityを提案する。
本手法は,強化学習型推論システムにおけるCoTA脆弱性に対する最初の包括的防御機構を確立する。
論文 参考訳(メタデータ) (2025-07-16T15:09:13Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。