論文の概要: CPS-Guard: Framework for Dependability Assurance of AI- and LLM-Based Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2506.06381v1
- Date: Wed, 04 Jun 2025 21:04:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.244854
- Title: CPS-Guard: Framework for Dependability Assurance of AI- and LLM-Based Cyber-Physical Systems
- Title(参考訳): CPS-Guard:AIとLLMに基づくサイバー物理システムの依存性保証のためのフレームワーク
- Authors: Trisanth Srinivasan, Santosh Patapati, Himani Musku, Idhant Gode, Aditya Arora, Samvit Bhattacharya, Abubakr Nazriev, Sanika Hirave, Zaryab Kanjiani, Srinjoy Ghose, Srinidhi Shetty,
- Abstract要約: CPS(Cyber-Physical Systems)は、重要なアプリケーションで運用する高度なAI技術に依存している。
従来の検証と検証方法は、AIコンポーネントの予測不可能でダイナミックな性質を扱うのに苦労することが多い。
我々は、AIによるCPSの反復保証プロセスを自動化するために、マルチロールオーケストレーションを利用する新しいフレームワークであるCPS-Guardを紹介する。
- 参考スコア(独自算出の注目度): 2.0576564592059943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cyber-Physical Systems (CPS) increasingly depend on advanced AI techniques to operate in critical applications. However, traditional verification and validation methods often struggle to handle the unpredictable and dynamic nature of AI components. In this paper, we introduce CPS-Guard, a novel framework that employs multi-role orchestration to automate the iterative assurance process for AI-powered CPS. By assigning specialized roles (e.g., safety monitoring, security assessment, fault injection, and recovery planning) to dedicated agents within a simulated environment, CPS-Guard continuously evaluates and refines AI behavior against a range of dependability requirements. We demonstrate the framework through a case study involving an autonomous vehicle navigating an intersection with an AI-based planner. Our results show that CPS-Guard effectively detects vulnerabilities, manages performance impacts, and supports adaptive recovery strategies, thereby offering a structured and extensible solution for rigorous V&V in safety- and security-critical systems.
- Abstract(参考訳): CPS(Cyber-Physical Systems)は、重要なアプリケーションで運用する高度なAI技術に依存している。
しかしながら、従来の検証と検証方法は、AIコンポーネントの予測不可能でダイナミックな性質を扱うのに苦労することが多い。
本稿では,AIを用いたCPSの反復保証プロセスを自動化するために,マルチロールオーケストレーションを利用する新しいフレームワークであるCPS-Guardを紹介する。
シミュレーション環境内の専用エージェントに特別な役割(例えば、安全監視、セキュリティ評価、フォールトインジェクション、リカバリ計画)を割り当てることによって、CPS-Guardは、さまざまな信頼性要件に対して、AIの振る舞いを継続的に評価し、洗練する。
我々は、AIベースのプランナーと交差点をナビゲートする自律走行車を含むケーススタディを通じて、このフレームワークを実証する。
この結果から,CPS-Guardは脆弱性を効果的に検出し,性能への影響を管理し,適応的回復戦略をサポートし,安全・セキュリティクリティカルシステムにおける厳密なV&Vのための構造化および拡張可能なソリューションを提供することがわかった。
関連論文リスト
- A Large Language Model-Supported Threat Modeling Framework for Transportation Cyber-Physical Systems [11.872361272221244]
TraCR-TMF(Transportation Cybersecurity and Resiliency Threat Modeling Framework)は、大規模言語モデル(LLM)ベースのフレームワークで、専門家の介入を最小限に抑える。
MITRE ATT&CKマトリックスを利用することで、脅威、潜在的な攻撃手法、および対応する対策を特定する。
TraCR-TMFはまた、カスタマイズされたLLMを使用して脆弱性を分析することで、攻撃経路を重要な資産にマップする。
論文 参考訳(メタデータ) (2025-06-01T04:33:34Z) - Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - A Survey of Anomaly Detection in Cyber-Physical Systems [1.2891210250935148]
本稿では,CPSにおける異常検出に対する研究者のアプローチについて概説する。
機械学習、ディープラーニング、数学的モデル、不変量、ハイブリッド技術などの手法を分類し比較する。
私たちのゴールは、読者がこれらの手法の長所と短所を理解し、より安全で信頼性の高いCPSを作成する方法を理解することです。
論文 参考訳(メタデータ) (2025-02-18T19:38:18Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - MORTAR: A Model-based Runtime Action Repair Framework for AI-enabled Cyber-Physical Systems [21.693552236958983]
CPS(Cyber-Physical Systems)は、様々な産業や日常生活領域でますます普及している。
近年の人工知能(AI)の発展に伴い、学習ベースのコンポーネント、特にAIコントローラは、CPSの機能と効率を高める上で欠かせないものとなっている。
これらのAIコントローラの解釈可能性の欠如は、AI対応CPS(AI-CPS)の安全性と品質保証に課題をもたらす。
論文 参考訳(メタデータ) (2024-08-07T16:44:53Z) - Cooperative Cognitive Dynamic System in UAV Swarms: Reconfigurable Mechanism and Framework [80.39138462246034]
UAVスワムの管理を最適化するための協調認知力学システム(CCDS)を提案する。
CCDSは階層的かつ協調的な制御構造であり、リアルタイムのデータ処理と意思決定を可能にする。
さらに、CCDSは、UAVスワムのタスクを効率的に割り当てるための生体模倣機構と統合することができる。
論文 参考訳(メタデータ) (2024-05-18T12:45:00Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Constraints Satisfiability Driven Reinforcement Learning for Autonomous
Cyber Defense [7.321728608775741]
強化学習(RL)の防御政策の最適化と検証を目的とした新しいハイブリッド自律エージェントアーキテクチャを紹介します。
我々は、安全かつ効果的な行動に向けてRL決定を操るために、制約検証(SMT(Satisfiability modulo theory))を用いる。
シミュレーションCPS環境における提案手法の評価は,エージェントが最適方針を迅速に学習し,99%のケースで多種多様な攻撃戦略を破ることを示す。
論文 参考訳(メタデータ) (2021-04-19T01:08:30Z) - An RL-Based Adaptive Detection Strategy to Secure Cyber-Physical Systems [0.0]
ソフトウェアベースの制御への依存が高まり、サイバー物理システムの脆弱性が高まった。
攻撃シナリオから学んだ経験に基づいて,このような検出器のパラメータを適応的に設定する強化学習(RL)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-04T07:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。