論文の概要: Data-Driven Falsification of Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2505.03863v1
- Date: Tue, 06 May 2025 16:33:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.881628
- Title: Data-Driven Falsification of Cyber-Physical Systems
- Title(参考訳): サイバー物理システムのデータ駆動型ファルシフィケーション
- Authors: Atanu Kundu, Sauvik Gon, Rajarshi Ray,
- Abstract要約: CPS(Cyber-Physical Systems)は、医療、アビオニクス、自動運転車などの安全上重要な分野に多い。
深層ニューラルネットワーク(DNN)のファルシフィケーションとCPSのファルシフィケーションを結びつける枠組みを提案する。
ツールのtextscFlexiFal として実装された我々のフレームワークは,線形および非線形のダイナミクスを持つ CPS のハード・トゥ・フィンド・カウンターサンプルを検出することができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cyber-Physical Systems (CPS) are abundant in safety-critical domains such as healthcare, avionics, and autonomous vehicles. Formal verification of their operational safety is, therefore, of utmost importance. In this paper, we address the falsification problem, where the focus is on searching for an unsafe execution in the system instead of proving their absence. The contribution of this paper is a framework that (a) connects the falsification of CPS with the falsification of deep neural networks (DNNs) and (b) leverages the inherent interpretability of Decision Trees for faster falsification of CPS. This is achieved by: (1) building a surrogate model of the CPS under test, either as a DNN model or a Decision Tree, (2) application of various DNN falsification tools to falsify CPS, and (3) a novel falsification algorithm guided by the explanations of safety violations of the CPS model extracted from its Decision Tree surrogate. The proposed framework has the potential to exploit a repertoire of \emph{adversarial attack} algorithms designed to falsify robustness properties of DNNs, as well as state-of-the-art falsification algorithms for DNNs. Although the presented methodology is applicable to systems that can be executed/simulated in general, we demonstrate its effectiveness, particularly in CPS. We show that our framework, implemented as a tool \textsc{FlexiFal}, can detect hard-to-find counterexamples in CPS that have linear and non-linear dynamics. Decision tree-guided falsification shows promising results in efficiently finding multiple counterexamples in the ARCH-COMP 2024 falsification benchmarks~\cite{khandait2024arch}.
- Abstract(参考訳): CPS(Cyber-Physical Systems)は、医療、アビオニクス、自動運転車などの安全上重要な分野に多い。
そのため、運用上の安全性の形式的検証が最も重要である。
本稿では,不在を証明せずに,システム内での安全でない実行を探索することに焦点を当てたファルシフィケーション問題に対処する。
本論文の貢献は,その枠組みである。
a)CPSのファルシフィケーションとディープニューラルネットワーク(DNN)のファルシフィケーションを結合し、
b) CPSのファリシフィケーションを高速化するために, 決定木の本質的解釈可能性を活用する。
1)DNNモデルまたは決定木としてテスト中のCPSのサロゲートモデルの構築、(2)CPSのファルシフィケーションのための様々なDNNファルシフィケーションツールの適用、(3)その決定木サロゲートから抽出されたCPSモデルの安全性違反の説明によって導かれる新しいファルシフィケーションアルゴリズムにより達成される。
提案するフレームワークは,DNNの堅牢性をファルシフィケートするために設計された<emph{adversarial attack}アルゴリズムのレパートリーと,DNNの最先端のファルシフィケーションアルゴリズムを利用する可能性がある。
提案手法は一般に実行/シミュレーション可能なシステムに適用できるが,その有効性,特にCPSにおいて実証する。
ツールとして実装された我々のフレームワークは、線形および非線形のダイナミクスを持つCPSにおいて、ハード・トゥ・フィンドの反例を検出することができることを示す。
決定木誘導のファルシフィケーションは、ARCH-COMP 2024のファルシフィケーションベンチマーク~\cite{khandait2024arch}において、複数の反例を効率的に発見する有望な結果を示す。
関連論文リスト
- Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
グラフニューラルネットワーク(GNN)におけるラベルフリップの正確な認証手法を提案する。
本稿では,ノード分類タスクにおける広範囲なGNNアーキテクチャの認証に本手法を適用した。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な認証を提示します。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Investigating Robustness in Cyber-Physical Systems: Specification-Centric Analysis in the face of System Deviations [8.8690305802668]
サイバー物理システム(CPS)の重要属性は堅牢性であり、安全に運用する能力を示している。
本稿では,特定のシステム要件を満たす上でのコントローラの有効性を特徴付ける,仕様に基づく新しいロバスト性を提案する。
本稿では, 微妙な堅牢性違反を識別するための2層シミュレーションに基づく解析フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T16:44:43Z) - Mitigating Adversarial Effects of False Data Injection Attacks in Power Grid [7.64743281201963]
Deep Neural Networksの利点は、False Data Injection Attacks (FDIA)を検出するために電力グリッドに取り入れられている。
本稿では, ランダム化を利用して, 入力をパディングすることで, 逆効果を緩和するフレームワークを提案する。
IEEE 14-bus, 30-bus, 118-bus, 300-bus を用いたシミュレーションにより, フレームワークの良好な結果を示す。
論文 参考訳(メタデータ) (2023-01-29T16:50:16Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Inter-Domain Fusion for Enhanced Intrusion Detection in Power Systems:
An Evidence Theoretic and Meta-Heuristic Approach [0.0]
ICSネットワークにおけるIDSによる不正な警告は、経済的および運用上の重大な損害をもたらす可能性がある。
本研究は,CPS電力系統における誤警報の事前分布を伴わずに不確実性に対処し,誤警報を低減する手法を提案する。
論文 参考訳(メタデータ) (2021-11-20T00:05:39Z) - Fast Falsification of Neural Networks using Property Directed Testing [0.1529342790344802]
本稿では,反例の探索を指示するニューラルネットワークの偽造アルゴリズムを提案する。
提案アルゴリズムは, 微分自由サンプリングに基づく最適化手法を用いる。
フェールシフィケーション手順は、他の検証ツールが安全でないと報告しているすべての安全でないインスタンスを検出する。
論文 参考訳(メタデータ) (2021-04-26T09:16:27Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。