論文の概要: Robustness Testing of Data and Knowledge Driven Anomaly Detection in
Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2204.09183v1
- Date: Wed, 20 Apr 2022 02:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 13:26:55.561247
- Title: Robustness Testing of Data and Knowledge Driven Anomaly Detection in
Cyber-Physical Systems
- Title(参考訳): サイバー物理システムにおけるデータのロバストネステストと知識駆動型異常検出
- Authors: Xugui Zhou, Maxfield Kouzel, Homa Alemzadeh
- Abstract要約: 本稿では,安全クリティカルCPSにおけるMLに基づく異常検出手法のロバスト性を評価するための予備的結果を提案する。
我々は、ドメイン知識(例えば、安全でないシステムの振る舞い)とMLモデルを統合することによって、精度と透明性を犠牲にすることなく、異常検出の堅牢性を向上させることができるかどうかを仮説として検証する。
- 参考スコア(独自算出の注目度): 2.088376060651494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing complexity of Cyber-Physical Systems (CPS) and challenges in
ensuring safety and security have led to the increasing use of deep learning
methods for accurate and scalable anomaly detection. However, machine learning
(ML) models often suffer from low performance in predicting unexpected data and
are vulnerable to accidental or malicious perturbations. Although robustness
testing of deep learning models has been extensively explored in applications
such as image classification and speech recognition, less attention has been
paid to ML-driven safety monitoring in CPS. This paper presents the preliminary
results on evaluating the robustness of ML-based anomaly detection methods in
safety-critical CPS against two types of accidental and malicious input
perturbations, generated using a Gaussian-based noise model and the Fast
Gradient Sign Method (FGSM). We test the hypothesis of whether integrating the
domain knowledge (e.g., on unsafe system behavior) with the ML models can
improve the robustness of anomaly detection without sacrificing accuracy and
transparency. Experimental results with two case studies of Artificial Pancreas
Systems (APS) for diabetes management show that ML-based safety monitors
trained with domain knowledge can reduce on average up to 54.2% of robustness
error and keep the average F1 scores high while improving transparency.
- Abstract(参考訳): サイバー物理システム(cps)の複雑さの増大と安全性と安全性の確保の課題は、正確でスケーラブルな異常検出のためのディープラーニング手法の利用の増加につながった。
しかしながら、機械学習(ML)モデルは、予期せぬデータの予測において低いパフォーマンスに悩まされ、偶然または悪意のある摂動に対して脆弱であることが多い。
ディープラーニングモデルの堅牢性テストは、画像分類や音声認識などのアプリケーションで広く研究されているが、CPSにおけるML駆動型安全監視には注意が払われていない。
本稿では,gaussian-based noise model と fast gradient sign method (fgsm) を用いて生成した2種類の偶発的および悪質な入力摂動に対する安全性クリティカルcpsにおけるmlに基づく異常検出法のロバスト性評価に関する予備結果について述べる。
MLモデルとドメイン知識(例えば、安全でないシステム動作)を統合することによって、精度と透明性を犠牲にすることなく、異常検出の堅牢性を向上させることができるかどうかを検証する。
糖尿病管理のためのAPS(Artificial Pancreas Systems)の2例の実験結果によると、MLベースの安全モニターは、平均54.2%の堅牢性エラーを低減し、平均F1スコアを高く保ちながら透明性を改善している。
関連論文リスト
- Bayesian Learned Models Can Detect Adversarial Malware For Free [28.498994871579985]
対数訓練は有効な方法であるが、大規模データセットにスケールアップするには計算コストがかかる。
特にベイズ式はモデルパラメータの分布を捉えることができ、モデル性能を犠牲にすることなく不確実性を定量化することができる。
ベイズ学習法で不確実性を定量化することで、敵のマルウェアを防御できることがわかった。
論文 参考訳(メタデータ) (2024-03-27T07:16:48Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Data-driven Semi-supervised Machine Learning with Surrogate Measures of Safety for Abnormal Driving Behavior Detection [6.972018255192681]
本研究では,いくつかの異常運転行動を明らかにする大規模実世界のデータを分析した。
部分ラベル付きデータを用いた半教師付き機械学習(ML)法を開発し,異常運転行動を正確に検出する。
論文 参考訳(メタデータ) (2023-12-07T16:16:09Z) - Ensemble models outperform single model uncertainties and predictions
for operator-learning of hypersonic flows [43.148818844265236]
限られた高忠実度データに基づく科学機械学習(SciML)モデルのトレーニングは、これまで見たことのない状況に対する行動の迅速な予測に1つのアプローチを提供する。
高忠実度データは、探索されていない入力空間におけるSciMLモデルのすべての出力を検証するために、それ自体が限られた量である。
我々は3つの異なる不確実性メカニズムを用いてDeepONetを拡張した。
論文 参考訳(メタデータ) (2023-10-31T18:07:29Z) - Performance evaluation of Machine learning algorithms for Intrusion Detection System [0.40964539027092917]
本稿では機械学習(ML)技術を用いた侵入検知システム(IDS)の解析に焦点を当てた。
機械学習モデルのトレーニングと検証に使用されるKDD CUP-'99'侵入検出データセットを分析した。
論文 参考訳(メタデータ) (2023-10-01T06:35:37Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Benchmarking Machine Learning Robustness in Covid-19 Genome Sequence
Classification [109.81283748940696]
我々は、IlluminaやPacBioといった一般的なシークエンシングプラットフォームのエラープロファイルを模倣するために、SARS-CoV-2ゲノム配列を摂動する方法をいくつか紹介する。
シミュレーションに基づくいくつかのアプローチは、入力シーケンスに対する特定の敵攻撃に対する特定の埋め込み手法に対して、他の手法よりも堅牢(かつ正確)であることを示す。
論文 参考訳(メタデータ) (2022-07-18T19:16:56Z) - Anomaly Detection in Cybersecurity: Unsupervised, Graph-Based and
Supervised Learning Methods in Adversarial Environments [63.942632088208505]
現在の運用環境に固有ののは、敵対的機械学習の実践である。
本研究では,教師なし学習とグラフに基づく異常検出の可能性を検討する。
我々は,教師付きモデルの訓練時に,現実的な対人訓練機構を組み込んで,対人環境における強力な分類性能を実現する。
論文 参考訳(メタデータ) (2021-05-14T10:05:10Z) - Data-driven Design of Context-aware Monitors for Hazard Prediction in
Artificial Pancreas Systems [2.126171264016785]
医療サイバー物理システム(MCPS)は、コントローラをターゲットとし、安全上の危険や患者への害を引き起こす可能性がある偶発的または悪意のある障害に対して脆弱です。
本論文では,危険の兆候を早期に検出し軽減できるコンテキスト認識型モニターの設計のためのモデルとデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2021-04-06T14:36:33Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Assurance Monitoring of Cyber-Physical Systems with Machine Learning
Components [2.1320960069210484]
我々は,サイバー物理システムの保証監視にコンフォメーション予測フレームワークを使用する方法について検討する。
リアルタイムに高次元入力を処理するために,学習モデルの埋め込み表現を用いて非整合性スコアを計算する。
整合性予測を活用することで、この手法は十分に校正された信頼性を提供し、限定された小さなエラー率を保証する監視を可能にする。
論文 参考訳(メタデータ) (2020-01-14T19:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。