論文の概要: CPS-Guard: Framework for Dependability Assurance of AI- and LLM-Based Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2506.06381v1
- Date: Wed, 04 Jun 2025 21:04:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.244854
- Title: CPS-Guard: Framework for Dependability Assurance of AI- and LLM-Based Cyber-Physical Systems
- Title(参考訳): CPS-Guard:AIとLLMに基づくサイバー物理システムの依存性保証のためのフレームワーク
- Authors: Trisanth Srinivasan, Santosh Patapati, Himani Musku, Idhant Gode, Aditya Arora, Samvit Bhattacharya, Abubakr Nazriev, Sanika Hirave, Zaryab Kanjiani, Srinjoy Ghose, Srinidhi Shetty,
- Abstract要約: CPS(Cyber-Physical Systems)は、重要なアプリケーションで運用する高度なAI技術に依存している。
従来の検証と検証方法は、AIコンポーネントの予測不可能でダイナミックな性質を扱うのに苦労することが多い。
我々は、AIによるCPSの反復保証プロセスを自動化するために、マルチロールオーケストレーションを利用する新しいフレームワークであるCPS-Guardを紹介する。
- 参考スコア(独自算出の注目度): 2.0576564592059943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cyber-Physical Systems (CPS) increasingly depend on advanced AI techniques to operate in critical applications. However, traditional verification and validation methods often struggle to handle the unpredictable and dynamic nature of AI components. In this paper, we introduce CPS-Guard, a novel framework that employs multi-role orchestration to automate the iterative assurance process for AI-powered CPS. By assigning specialized roles (e.g., safety monitoring, security assessment, fault injection, and recovery planning) to dedicated agents within a simulated environment, CPS-Guard continuously evaluates and refines AI behavior against a range of dependability requirements. We demonstrate the framework through a case study involving an autonomous vehicle navigating an intersection with an AI-based planner. Our results show that CPS-Guard effectively detects vulnerabilities, manages performance impacts, and supports adaptive recovery strategies, thereby offering a structured and extensible solution for rigorous V&V in safety- and security-critical systems.
- Abstract(参考訳): CPS(Cyber-Physical Systems)は、重要なアプリケーションで運用する高度なAI技術に依存している。
しかしながら、従来の検証と検証方法は、AIコンポーネントの予測不可能でダイナミックな性質を扱うのに苦労することが多い。
本稿では,AIを用いたCPSの反復保証プロセスを自動化するために,マルチロールオーケストレーションを利用する新しいフレームワークであるCPS-Guardを紹介する。
シミュレーション環境内の専用エージェントに特別な役割(例えば、安全監視、セキュリティ評価、フォールトインジェクション、リカバリ計画)を割り当てることによって、CPS-Guardは、さまざまな信頼性要件に対して、AIの振る舞いを継続的に評価し、洗練する。
我々は、AIベースのプランナーと交差点をナビゲートする自律走行車を含むケーススタディを通じて、このフレームワークを実証する。
この結果から,CPS-Guardは脆弱性を効果的に検出し,性能への影響を管理し,適応的回復戦略をサポートし,安全・セキュリティクリティカルシステムにおける厳密なV&Vのための構造化および拡張可能なソリューションを提供することがわかった。
関連論文リスト
- Taming Uncertainty via Automation: Observing, Analyzing, and Optimizing Agentic AI Systems [1.9751175705897066]
大規模言語モデル (LLMs) はエージェントシステムにますます展開され、対話型のLLMエージェントは複雑で、メモリ、ツール、動的プランニングを用いて適応的に実行される。
従来のソフトウェアオブザーバビリティと運用プラクティスは、これらの課題に対処するには不十分です。
本稿ではエージェントAIシステムの動作を観察し、分析し、最適化し、自動化するための総合的なフレームワークであるAgentOpsを紹介する。
論文 参考訳(メタデータ) (2025-07-15T12:54:43Z) - Hierarchical Adversarially-Resilient Multi-Agent Reinforcement Learning for Cyber-Physical Systems Security [0.0]
本稿では,階層型適応型レジリエントなマルチエージェント強化学習フレームワークを提案する。
このフレームワークには、進化するサイバー脅威をシミュレートし予測するために設計された敵の訓練ループが含まれている。
論文 参考訳(メタデータ) (2025-06-12T01:38:25Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - A Large Language Model-Supported Threat Modeling Framework for Transportation Cyber-Physical Systems [11.872361272221244]
TraCR-TMF(Transportation Cybersecurity and Resiliency Threat Modeling Framework)は、大規模言語モデル(LLM)ベースのフレームワークで、専門家の介入を最小限に抑える。
MITRE ATT&CKマトリックスを利用することで、脅威、潜在的な攻撃手法、および対応する対策を特定する。
TraCR-TMFはまた、カスタマイズされたLLMを使用して脆弱性を分析することで、攻撃経路を重要な資産にマップする。
論文 参考訳(メタデータ) (2025-06-01T04:33:34Z) - MSDA: Combining Pseudo-labeling and Self-Supervision for Unsupervised Domain Adaptation in ASR [59.83547898874152]
本稿では,自己教師付き学習と半教師付き技術を統合する,サンプル効率のよい2段階適応手法を提案する。
MSDAは、ASRモデルの堅牢性と一般化を強化するように設計されている。
本稿では,メタPLがASRタスクに効果的に適用可能であることを示す。
論文 参考訳(メタデータ) (2025-05-30T14:46:05Z) - Engineering Risk-Aware, Security-by-Design Frameworks for Assurance of Large-Scale Autonomous AI Models [0.0]
本稿では,大規模自律型AIシステムを対象とした企業レベルのリスク認識型セキュリティ・バイ・デザイン手法を提案する。
敵的および運用的ストレス下でのモデル動作の証明可能な保証を提供する統一パイプラインについて詳述する。
国家安全保障、オープンソースモデルガバナンス、産業自動化におけるケーススタディは、脆弱性とコンプライアンスのオーバーヘッドの計測可能な削減を実証している。
論文 参考訳(メタデータ) (2025-05-09T20:14:53Z) - Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - A Survey of Anomaly Detection in Cyber-Physical Systems [1.2891210250935148]
本稿では,CPSにおける異常検出に対する研究者のアプローチについて概説する。
機械学習、ディープラーニング、数学的モデル、不変量、ハイブリッド技術などの手法を分類し比較する。
私たちのゴールは、読者がこれらの手法の長所と短所を理解し、より安全で信頼性の高いCPSを作成する方法を理解することです。
論文 参考訳(メタデータ) (2025-02-18T19:38:18Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - MORTAR: A Model-based Runtime Action Repair Framework for AI-enabled Cyber-Physical Systems [21.693552236958983]
CPS(Cyber-Physical Systems)は、様々な産業や日常生活領域でますます普及している。
近年の人工知能(AI)の発展に伴い、学習ベースのコンポーネント、特にAIコントローラは、CPSの機能と効率を高める上で欠かせないものとなっている。
これらのAIコントローラの解釈可能性の欠如は、AI対応CPS(AI-CPS)の安全性と品質保証に課題をもたらす。
論文 参考訳(メタデータ) (2024-08-07T16:44:53Z) - Cooperative Cognitive Dynamic System in UAV Swarms: Reconfigurable Mechanism and Framework [80.39138462246034]
UAVスワムの管理を最適化するための協調認知力学システム(CCDS)を提案する。
CCDSは階層的かつ協調的な制御構造であり、リアルタイムのデータ処理と意思決定を可能にする。
さらに、CCDSは、UAVスワムのタスクを効率的に割り当てるための生体模倣機構と統合することができる。
論文 参考訳(メタデータ) (2024-05-18T12:45:00Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Constraints Satisfiability Driven Reinforcement Learning for Autonomous
Cyber Defense [7.321728608775741]
強化学習(RL)の防御政策の最適化と検証を目的とした新しいハイブリッド自律エージェントアーキテクチャを紹介します。
我々は、安全かつ効果的な行動に向けてRL決定を操るために、制約検証(SMT(Satisfiability modulo theory))を用いる。
シミュレーションCPS環境における提案手法の評価は,エージェントが最適方針を迅速に学習し,99%のケースで多種多様な攻撃戦略を破ることを示す。
論文 参考訳(メタデータ) (2021-04-19T01:08:30Z) - An RL-Based Adaptive Detection Strategy to Secure Cyber-Physical Systems [0.0]
ソフトウェアベースの制御への依存が高まり、サイバー物理システムの脆弱性が高まった。
攻撃シナリオから学んだ経験に基づいて,このような検出器のパラメータを適応的に設定する強化学習(RL)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-04T07:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。