論文の概要: Robustness Testing of Data and Knowledge Driven Anomaly Detection in
Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2204.09183v1
- Date: Wed, 20 Apr 2022 02:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 13:26:55.561247
- Title: Robustness Testing of Data and Knowledge Driven Anomaly Detection in
Cyber-Physical Systems
- Title(参考訳): サイバー物理システムにおけるデータのロバストネステストと知識駆動型異常検出
- Authors: Xugui Zhou, Maxfield Kouzel, Homa Alemzadeh
- Abstract要約: 本稿では,安全クリティカルCPSにおけるMLに基づく異常検出手法のロバスト性を評価するための予備的結果を提案する。
我々は、ドメイン知識(例えば、安全でないシステムの振る舞い)とMLモデルを統合することによって、精度と透明性を犠牲にすることなく、異常検出の堅牢性を向上させることができるかどうかを仮説として検証する。
- 参考スコア(独自算出の注目度): 2.088376060651494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing complexity of Cyber-Physical Systems (CPS) and challenges in
ensuring safety and security have led to the increasing use of deep learning
methods for accurate and scalable anomaly detection. However, machine learning
(ML) models often suffer from low performance in predicting unexpected data and
are vulnerable to accidental or malicious perturbations. Although robustness
testing of deep learning models has been extensively explored in applications
such as image classification and speech recognition, less attention has been
paid to ML-driven safety monitoring in CPS. This paper presents the preliminary
results on evaluating the robustness of ML-based anomaly detection methods in
safety-critical CPS against two types of accidental and malicious input
perturbations, generated using a Gaussian-based noise model and the Fast
Gradient Sign Method (FGSM). We test the hypothesis of whether integrating the
domain knowledge (e.g., on unsafe system behavior) with the ML models can
improve the robustness of anomaly detection without sacrificing accuracy and
transparency. Experimental results with two case studies of Artificial Pancreas
Systems (APS) for diabetes management show that ML-based safety monitors
trained with domain knowledge can reduce on average up to 54.2% of robustness
error and keep the average F1 scores high while improving transparency.
- Abstract(参考訳): サイバー物理システム(cps)の複雑さの増大と安全性と安全性の確保の課題は、正確でスケーラブルな異常検出のためのディープラーニング手法の利用の増加につながった。
しかしながら、機械学習(ML)モデルは、予期せぬデータの予測において低いパフォーマンスに悩まされ、偶然または悪意のある摂動に対して脆弱であることが多い。
ディープラーニングモデルの堅牢性テストは、画像分類や音声認識などのアプリケーションで広く研究されているが、CPSにおけるML駆動型安全監視には注意が払われていない。
本稿では,gaussian-based noise model と fast gradient sign method (fgsm) を用いて生成した2種類の偶発的および悪質な入力摂動に対する安全性クリティカルcpsにおけるmlに基づく異常検出法のロバスト性評価に関する予備結果について述べる。
MLモデルとドメイン知識(例えば、安全でないシステム動作)を統合することによって、精度と透明性を犠牲にすることなく、異常検出の堅牢性を向上させることができるかどうかを検証する。
糖尿病管理のためのAPS(Artificial Pancreas Systems)の2例の実験結果によると、MLベースの安全モニターは、平均54.2%の堅牢性エラーを低減し、平均F1スコアを高く保ちながら透明性を改善している。
関連論文リスト
- Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Data-driven Semi-supervised Machine Learning with Surrogate Safety
Measures for Abnormal Driving Behavior Detection [7.479901577089033]
本研究では,いくつかの異常運転行動を明らかにする大規模実世界のデータを分析した。
部分ラベル付きデータを用いた半教師付き機械学習(ML)法を開発し,異常運転行動を正確に検出する。
論文 参考訳(メタデータ) (2023-12-07T16:16:09Z) - How adversarial attacks can disrupt seemingly stable accurate
classifiers [80.2657717174889]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Few-shot Detection of Anomalies in Industrial Cyber-Physical System via
Prototypical Network and Contrastive Learning [5.9990208840809345]
本稿では,プロトタイプネットワークとコントラスト学習に基づく数ショットの異常検出モデルを提案する。
本モデルでは,異常信号を特定するために,F1スコアを大幅に改善し,誤警報率(FAR)を低減できることを示す。
論文 参考訳(メタデータ) (2023-02-21T11:09:36Z) - Benchmarking Machine Learning Robustness in Covid-19 Genome Sequence
Classification [109.81283748940696]
我々は、IlluminaやPacBioといった一般的なシークエンシングプラットフォームのエラープロファイルを模倣するために、SARS-CoV-2ゲノム配列を摂動する方法をいくつか紹介する。
シミュレーションに基づくいくつかのアプローチは、入力シーケンスに対する特定の敵攻撃に対する特定の埋め込み手法に対して、他の手法よりも堅牢(かつ正確)であることを示す。
論文 参考訳(メタデータ) (2022-07-18T19:16:56Z) - SLA$^2$P: Self-supervised Anomaly Detection with Adversarial
Perturbation [77.71161225100927]
異常検出は、機械学習の基本的な問題であるが、難しい問題である。
本稿では,非教師付き異常検出のための新しい強力なフレームワークであるSLA$2$Pを提案する。
論文 参考訳(メタデータ) (2021-11-25T03:53:43Z) - Assurance Monitoring of Learning Enabled Cyber-Physical Systems Using
Inductive Conformal Prediction based on Distance Learning [2.66512000865131]
本稿では,学習可能なサイバー物理システムの保証監視手法を提案する。
リアルタイムの保証監視を可能にするため,高次元入力を低次元埋め込み表現に変換するために距離学習を用いる。
壁面認識,話者認識,交通信号認識の3つの移動ロボットを用いて,そのアプローチを実証する。
論文 参考訳(メタデータ) (2021-10-07T00:21:45Z) - Anomaly Detection in Cybersecurity: Unsupervised, Graph-Based and
Supervised Learning Methods in Adversarial Environments [63.942632088208505]
現在の運用環境に固有ののは、敵対的機械学習の実践である。
本研究では,教師なし学習とグラフに基づく異常検出の可能性を検討する。
我々は,教師付きモデルの訓練時に,現実的な対人訓練機構を組み込んで,対人環境における強力な分類性能を実現する。
論文 参考訳(メタデータ) (2021-05-14T10:05:10Z) - Data-driven Design of Context-aware Monitors for Hazard Prediction in
Artificial Pancreas Systems [2.126171264016785]
医療サイバー物理システム(MCPS)は、コントローラをターゲットとし、安全上の危険や患者への害を引き起こす可能性がある偶発的または悪意のある障害に対して脆弱です。
本論文では,危険の兆候を早期に検出し軽減できるコンテキスト認識型モニターの設計のためのモデルとデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2021-04-06T14:36:33Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Assurance Monitoring of Cyber-Physical Systems with Machine Learning
Components [2.1320960069210484]
我々は,サイバー物理システムの保証監視にコンフォメーション予測フレームワークを使用する方法について検討する。
リアルタイムに高次元入力を処理するために,学習モデルの埋め込み表現を用いて非整合性スコアを計算する。
整合性予測を活用することで、この手法は十分に校正された信頼性を提供し、限定された小さなエラー率を保証する監視を可能にする。
論文 参考訳(メタデータ) (2020-01-14T19:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。