論文の概要: Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems
- arxiv url: http://arxiv.org/abs/2004.05005v1
- Date: Fri, 10 Apr 2020 12:05:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:36:22.581533
- Title: Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems
- Title(参考訳): 産業制御システムにおける機械学習サイバーセキュリティ防衛の敵攻撃
- Authors: Eirini Anthi, Lowri Williams, Matilda Rhode, Pete Burnap, Adam
Wedgbury
- Abstract要約: 本稿では, 教師付きモデルを対象として, 対戦型サンプルを生成することで, 対戦型学習をいかに活用できるかを考察する。
また、このようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をサポートする方法についても検討している。
その結果,広く使用されている2種類の分類器であるランダムフォレスト(Random Forest)とJ48(J48)の分類性能は,逆に16~20ポイント低下した。
- 参考スコア(独自算出の注目度): 2.86989372262348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation and application of machine learning based Intrusion
Detection Systems (IDS) have allowed for more flexibility and efficiency in the
automated detection of cyber attacks in Industrial Control Systems (ICS).
However, the introduction of such IDSs has also created an additional attack
vector; the learning models may also be subject to cyber attacks, otherwise
referred to as Adversarial Machine Learning (AML). Such attacks may have severe
consequences in ICS systems, as adversaries could potentially bypass the IDS.
This could lead to delayed attack detection which may result in infrastructure
damages, financial loss, and even loss of life. This paper explores how
adversarial learning can be used to target supervised models by generating
adversarial samples using the Jacobian-based Saliency Map attack and exploring
classification behaviours. The analysis also includes the exploration of how
such samples can support the robustness of supervised models using adversarial
training. An authentic power system dataset was used to support the experiments
presented herein. Overall, the classification performance of two widely used
classifiers, Random Forest and J48, decreased by 16 and 20 percentage points
when adversarial samples were present. Their performances improved following
adversarial training, demonstrating their robustness towards such attacks.
- Abstract(参考訳): 機械学習ベースの侵入検知システム(IDS)の普及と応用により、産業制御システム(ICS)におけるサイバー攻撃の自動検出の柔軟性と効率性が向上した。
しかし、このようなidssの導入は、新たな攻撃ベクトルを生み出した。学習モデルはまた、サイバー攻撃の対象となり得る(adversarial machine learning (aml)とも呼ばれる)。
このような攻撃はICSシステムに深刻な結果をもたらす可能性がある。
これにより攻撃が遅れ、インフラの損傷、財政的損失、さらには生命の喪失につながる可能性がある。
本稿では,jacobian-based saliency map attack を用いて敵対的サンプルを生成し,分類行動の探索を行い,教師付きモデルをターゲットにした学習手法について検討する。
この分析はまた、そのようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をどのように支援できるかを探索することを含む。
ここで提示された実験を支援するために、真正の電力システムデータセットが使用された。
総じて,ランダムフォレストとj48という2つの分類器の分類性能は,逆行検体が存在すると16~20ポイント低下した。
彼らのパフォーマンスは敵の訓練後に改善し、そのような攻撃に対する堅牢性を実証した。
関連論文リスト
- Btech thesis report on adversarial attack detection and purification of
adverserially attacked images [0.0]
本論文は, 負の攻撃を受けた画像の検出と浄化に関するものである。
ディープラーニングモデルは、分類、回帰などの様々なタスクのための特定のトレーニング例に基づいて訓練される。
論文 参考訳(メタデータ) (2022-05-09T09:24:11Z) - AdIoTack: Quantifying and Refining Resilience of Decision Tree Ensemble
Inference Models against Adversarial Volumetric Attacks on IoT Networks [1.1172382217477126]
本稿では,敵攻撃に対する決定木の脆弱性を強調するシステムであるAdIoTackを紹介する。
最悪のシナリオのモデルを評価するために、AdIoTackは、ホワイトボックスの敵学習を実行し、ボリューム攻撃を成功させる。
モデルがIoTデバイスに対する非敵のボリューム攻撃を検知し、多くの敵の攻撃を欠いていることを実証する。
論文 参考訳(メタデータ) (2022-03-18T08:18:03Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Learning-Based Vulnerability Analysis of Cyber-Physical Systems [10.066594071800337]
本研究は,サイバー物理システムの脆弱性解析におけるディープラーニングの利用に焦点を当てる。
我々は,低レベル制御が拡張カルマンフィルタ(ekf)や異常検出器(anomaly detector)などに基づくcpsにおいて広く用いられている制御アーキテクチャを考える。
潜在的なセンシング攻撃が持つ影響を分析することを容易にするため、学習可能な攻撃生成器の開発が目的である。
論文 参考訳(メタデータ) (2021-03-10T06:52:26Z) - Fortify Machine Learning Production Systems: Detect and Classify
Adversarial Attacks [0.0]
本研究では,入ってくる敵の攻撃とその特性を検出する生産保護システムを提案する。
基盤となるモデルは、これらの攻撃から堅牢になるように構造化された方法でトレーニングすることができる。
逆画像分類空間は、転送学習でよく使われるモデルについて検討される。
論文 参考訳(メタデータ) (2021-02-19T00:47:16Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Adversarial Machine Learning Attacks on Condition-Based Maintenance
Capabilities [0.0]
条件ベースのメンテナンス(CBM)戦略は、システムの健康状態を評価するために機械学習モデルを活用する。
悪意のある敵は収集したデータを操作して機械学習モデルを騙し、CBMシステムのパフォーマンスに影響を与える。
コンピュータビジョン領域で導入された逆機械学習技術は、CBMシステムに対するステルス攻撃に使用できる。
論文 参考訳(メタデータ) (2021-01-28T16:34:04Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。