論文の概要: Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems
- arxiv url: http://arxiv.org/abs/2004.05005v1
- Date: Fri, 10 Apr 2020 12:05:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:36:22.581533
- Title: Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems
- Title(参考訳): 産業制御システムにおける機械学習サイバーセキュリティ防衛の敵攻撃
- Authors: Eirini Anthi, Lowri Williams, Matilda Rhode, Pete Burnap, Adam
Wedgbury
- Abstract要約: 本稿では, 教師付きモデルを対象として, 対戦型サンプルを生成することで, 対戦型学習をいかに活用できるかを考察する。
また、このようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をサポートする方法についても検討している。
その結果,広く使用されている2種類の分類器であるランダムフォレスト(Random Forest)とJ48(J48)の分類性能は,逆に16~20ポイント低下した。
- 参考スコア(独自算出の注目度): 2.86989372262348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation and application of machine learning based Intrusion
Detection Systems (IDS) have allowed for more flexibility and efficiency in the
automated detection of cyber attacks in Industrial Control Systems (ICS).
However, the introduction of such IDSs has also created an additional attack
vector; the learning models may also be subject to cyber attacks, otherwise
referred to as Adversarial Machine Learning (AML). Such attacks may have severe
consequences in ICS systems, as adversaries could potentially bypass the IDS.
This could lead to delayed attack detection which may result in infrastructure
damages, financial loss, and even loss of life. This paper explores how
adversarial learning can be used to target supervised models by generating
adversarial samples using the Jacobian-based Saliency Map attack and exploring
classification behaviours. The analysis also includes the exploration of how
such samples can support the robustness of supervised models using adversarial
training. An authentic power system dataset was used to support the experiments
presented herein. Overall, the classification performance of two widely used
classifiers, Random Forest and J48, decreased by 16 and 20 percentage points
when adversarial samples were present. Their performances improved following
adversarial training, demonstrating their robustness towards such attacks.
- Abstract(参考訳): 機械学習ベースの侵入検知システム(IDS)の普及と応用により、産業制御システム(ICS)におけるサイバー攻撃の自動検出の柔軟性と効率性が向上した。
しかし、このようなidssの導入は、新たな攻撃ベクトルを生み出した。学習モデルはまた、サイバー攻撃の対象となり得る(adversarial machine learning (aml)とも呼ばれる)。
このような攻撃はICSシステムに深刻な結果をもたらす可能性がある。
これにより攻撃が遅れ、インフラの損傷、財政的損失、さらには生命の喪失につながる可能性がある。
本稿では,jacobian-based saliency map attack を用いて敵対的サンプルを生成し,分類行動の探索を行い,教師付きモデルをターゲットにした学習手法について検討する。
この分析はまた、そのようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をどのように支援できるかを探索することを含む。
ここで提示された実験を支援するために、真正の電力システムデータセットが使用された。
総じて,ランダムフォレストとj48という2つの分類器の分類性能は,逆行検体が存在すると16~20ポイント低下した。
彼らのパフォーマンスは敵の訓練後に改善し、そのような攻撃に対する堅牢性を実証した。
関連論文リスト
- CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - A Dual-Tier Adaptive One-Class Classification IDS for Emerging Cyberthreats [3.560574387648533]
2層構造を有する一級分類駆動型IDSシステムを提案する。
第1層は通常の活動と攻撃/脅威を区別し、第2層は検出された攻撃が未知であるかを判定する。
このモデルは、目に見えない攻撃を識別するだけでなく、目に見えない攻撃をクラスタリングすることでそれらを再トレーニングするために使用する。
論文 参考訳(メタデータ) (2024-03-17T12:26:30Z) - usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - Btech thesis report on adversarial attack detection and purification of
adverserially attacked images [0.0]
本論文は, 負の攻撃を受けた画像の検出と浄化に関するものである。
ディープラーニングモデルは、分類、回帰などの様々なタスクのための特定のトレーニング例に基づいて訓練される。
論文 参考訳(メタデータ) (2022-05-09T09:24:11Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Learning-Based Vulnerability Analysis of Cyber-Physical Systems [10.066594071800337]
本研究は,サイバー物理システムの脆弱性解析におけるディープラーニングの利用に焦点を当てる。
我々は,低レベル制御が拡張カルマンフィルタ(ekf)や異常検出器(anomaly detector)などに基づくcpsにおいて広く用いられている制御アーキテクチャを考える。
潜在的なセンシング攻撃が持つ影響を分析することを容易にするため、学習可能な攻撃生成器の開発が目的である。
論文 参考訳(メタデータ) (2021-03-10T06:52:26Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。