論文の概要: Learning-Based Vulnerability Analysis of Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2103.06271v1
- Date: Wed, 10 Mar 2021 06:52:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 23:04:21.779943
- Title: Learning-Based Vulnerability Analysis of Cyber-Physical Systems
- Title(参考訳): サイバー物理システムの学習に基づく脆弱性解析
- Authors: Amir Khazraei, Spencer Hallyburton, Qitong Gao, Yu Wang and Miroslav
Pajic
- Abstract要約: 本研究は,サイバー物理システムの脆弱性解析におけるディープラーニングの利用に焦点を当てる。
我々は,低レベル制御が拡張カルマンフィルタ(ekf)や異常検出器(anomaly detector)などに基づくcpsにおいて広く用いられている制御アーキテクチャを考える。
潜在的なセンシング攻撃が持つ影響を分析することを容易にするため、学習可能な攻撃生成器の開発が目的である。
- 参考スコア(独自算出の注目度): 10.066594071800337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work focuses on the use of deep learning for vulnerability analysis of
cyber-physical systems (CPS). Specifically, we consider a control architecture
widely used in CPS (e.g., robotics), where the low-level control is based on
e.g., the extended Kalman filter (EKF) and an anomaly detector. To facilitate
analyzing the impact potential sensing attacks could have, our objective is to
develop learning-enabled attack generators capable of designing stealthy
attacks that maximally degrade system operation. We show how such problem can
be cast within a learning-based grey-box framework where parts of the runtime
information are known to the attacker, and introduce two models based on
feed-forward neural networks (FNN); both models are trained offline, using a
cost function that combines the attack effects on the estimation error and the
residual signal used for anomaly detection, so that the trained models are
capable of recursively generating such effective sensor attacks in real-time.
The effectiveness of the proposed methods is illustrated on several case
studies.
- Abstract(参考訳): 本研究は,サイバー物理システム(CPS)の脆弱性解析におけるディープラーニングの利用に焦点を当てる。
具体的には、低レベル制御が拡張カルマンフィルタ(EKF)や異常検知器などに基づいているCPS(ロボット工学など)で広く使用されている制御アーキテクチャを検討する。
本研究の目的は,システム動作を最大に劣化させるステルス攻撃を設計できる学習可能な攻撃ジェネレータを開発することである。
ランタイム情報の一部がアタッカーに認識される学習ベースのグレーボックスフレームワークにこのような問題をどのようにキャストするかを示し、フィードフォワードニューラルネットワーク(FNN)に基づく2つのモデルを紹介します。両方のモデルはオフラインでトレーニングされ、推定エラーに対する攻撃効果と異常検出に使用される残留信号を組み合わせたコスト関数を使用して、トレーニングされたモデルがそのような効果的なセンサー攻撃をリアルタイムで再帰的に生成できるようにします。
提案手法の有効性をいくつかのケーススタディに示す。
関連論文リスト
- Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - A Variational Autoencoder Framework for Robust, Physics-Informed
Cyberattack Recognition in Industrial Cyber-Physical Systems [2.051548207330147]
我々は、産業制御システムに対する秘密攻撃と呼ばれるサイバー攻撃を検出し、診断し、ローカライズするために使用できるデータ駆動フレームワークを開発する。
このフレームワークは、可変オートエンコーダ(VAE)、リカレントニューラルネットワーク(RNN)、ディープニューラルネットワーク(DNN)を組み合わせたハイブリッド設計である。
論文 参考訳(メタデータ) (2023-10-10T19:07:53Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - A Secure Learning Control Strategy via Dynamic Camouflaging for Unknown
Dynamical Systems under Attacks [0.0]
本稿では、未知の線形時間不変サイバー物理システム(CPS)に対するセキュア強化学習(RL)に基づく制御手法を提案する。
本研究では,設計者による学習の探索段階において,攻撃者が動的モデルについて学習する攻撃シナリオについて考察する。
本稿では,動的カモフラージュに基づく攻撃耐性強化学習(ARRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-01T00:34:38Z) - Deep Learning based Covert Attack Identification for Industrial Control
Systems [5.299113288020827]
我々は、スマートグリッドに対する秘密攻撃と呼ばれるサイバー攻撃を検出し、診断し、ローカライズするために使用できるデータ駆動フレームワークを開発した。
このフレームワークは、オートエンコーダ、リカレントニューラルネットワーク(RNN)とLong-Short-Term-Memory層、Deep Neural Network(DNN)を組み合わせたハイブリッド設計である。
論文 参考訳(メタデータ) (2020-09-25T17:48:43Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems [2.86989372262348]
本稿では, 教師付きモデルを対象として, 対戦型サンプルを生成することで, 対戦型学習をいかに活用できるかを考察する。
また、このようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をサポートする方法についても検討している。
その結果,広く使用されている2種類の分類器であるランダムフォレスト(Random Forest)とJ48(J48)の分類性能は,逆に16~20ポイント低下した。
論文 参考訳(メタデータ) (2020-04-10T12:05:33Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。