論文の概要: Can't Boil This Frog: Robustness of Online-Trained Autoencoder-Based
Anomaly Detectors to Adversarial Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2002.02741v1
- Date: Fri, 7 Feb 2020 12:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:28:40.423061
- Title: Can't Boil This Frog: Robustness of Online-Trained Autoencoder-Based
Anomaly Detectors to Adversarial Poisoning Attacks
- Title(参考訳): オンラインのオートエンコーダをベースとした異常検知器の攻撃に対するロバスト性
- Authors: Moshe Kravchik, Asaf Shabtai
- Abstract要約: 本研究は,オンライン学習型オートエンコーダを用いたアタック検出装置に対する中毒攻撃に焦点を当てた最初の研究である。
提案アルゴリズムは, オートエンコーダ検出器によって検出されない標的攻撃の原因となる毒のサンプルを生成することができることを示す。
この発見は、サイバー物理領域で使用されるニューラルネットワークベースの攻撃検出器が、他の問題領域よりも毒性に強いことを示唆している。
- 参考スコア(独自算出の注目度): 26.09388179354751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, a variety of effective neural network-based methods for
anomaly and cyber attack detection in industrial control systems (ICSs) have
been demonstrated in the literature. Given their successful implementation and
widespread use, there is a need to study adversarial attacks on such detection
methods to better protect the systems that depend upon them. The extensive
research performed on adversarial attacks on image and malware classification
has little relevance to the physical system state prediction domain, which most
of the ICS attack detection systems belong to. Moreover, such detection systems
are typically retrained using new data collected from the monitored system,
thus the threat of adversarial data poisoning is significant, however this
threat has not yet been addressed by the research community. In this paper, we
present the first study focused on poisoning attacks on online-trained
autoencoder-based attack detectors. We propose two algorithms for generating
poison samples, an interpolation-based algorithm and a back-gradient
optimization-based algorithm, which we evaluate on both synthetic and
real-world ICS data. We demonstrate that the proposed algorithms can generate
poison samples that cause the target attack to go undetected by the autoencoder
detector, however the ability to poison the detector is limited to a small set
of attack types and magnitudes. When the poison-generating algorithms are
applied to the popular SWaT dataset, we show that the autoencoder detector
trained on the physical system state data is resilient to poisoning in the face
of all ten of the relevant attacks in the dataset. This finding suggests that
neural network-based attack detectors used in the cyber-physical domain are
more robust to poisoning than in other problem domains, such as malware
detection and image processing.
- Abstract(参考訳): 近年,産業用制御システム (ICS) における異常やサイバー攻撃検出に有効なニューラルネットワークを用いた様々な手法が文献で実証されている。
それらの実装の成功と広範な利用を考えると、それらに依存するシステムを保護するために、そのような検出方法に対する敵意攻撃を研究する必要がある。
画像とマルウェアの分類に対する敵攻撃に関する広範な研究は、ICS攻撃検知システムの大半が属する物理的システム状態予測ドメインとはほとんど関係がない。
さらに、このような検出システムは監視システムから収集した新たなデータを用いて再訓練されることが多いため、敵データ中毒の脅威は大きいが、まだ研究コミュニティによって対処されていない。
本稿では,オンライン学習オートエンコーダに基づく攻撃検知器に対する中毒攻撃に着目した最初の研究を行う。
本研究では, 毒物サンプル生成のための2つのアルゴリズム, 補間に基づくアルゴリズムと, 合成および実世界のicデータから評価する逆勾配最適化に基づくアルゴリズムを提案する。
提案アルゴリズムは, オートエンコーダ検出器によって標的攻撃が検出されないような毒サンプルを生成できることを実証するが, 検出する能力は少数の攻撃タイプと大きさに限られる。
一般的なSWaTデータセットに毒を発生させるアルゴリズムを適用すると、物理的システム状態データに基づいて訓練されたオートエンコーダ検出器が、データセットに含まれる10の攻撃のすべてに対して、毒性を持つことを示す。
この発見は、サイバー物理領域で使用されるニューラルネットワークベースの攻撃検知器が、マルウェア検出や画像処理などの他の問題領域よりも毒性に強いことを示唆している。
関連論文リスト
- Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Early Detection of Network Attacks Using Deep Learning [0.0]
ネットワーク侵入検知システム(英: Network Intrusion Detection System、IDS)は、ネットワークトラフィックを観察することによって、不正かつ悪意のない行動を特定するためのツールである。
本稿では,攻撃対象のシステムにダメージを与える前に,ネットワーク攻撃を防止するために,エンド・ツー・エンドの早期侵入検知システムを提案する。
論文 参考訳(メタデータ) (2022-01-27T16:35:37Z) - A Heterogeneous Graph Learning Model for Cyber-Attack Detection [4.559898668629277]
サイバー攻撃は、ハッカーが標的とする情報システムに侵入する悪意のある試みである。
本稿では,証明データに基づく知的サイバー攻撃検出手法を提案する。
実験の結果,提案手法は他の学習ベース検出モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-12-16T16:03:39Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Adversarial Attacks and Mitigation for Anomaly Detectors of
Cyber-Physical Systems [6.417955560857806]
本研究では,CPSの異常検出器とルールチェッカーを同時に回避する対向攻撃を提案する。
既存の勾配に基づくアプローチにインスパイアされた我々の敵攻撃は、センサーとアクチュエーターの値にノイズを発生させ、遺伝的アルゴリズムを使って後者を最適化する。
実世界の2つの重要なインフラテストベッドに対するアプローチを実装し、検出器の分類精度を平均50%以上下げることに成功した。
論文 参考訳(メタデータ) (2021-05-22T12:19:03Z) - Poisoning Attacks on Cyber Attack Detectors for Industrial Control
Systems [34.86059492072526]
私たちはICSオンラインニューラルネットワーク検出器に対するこのような毒攻撃を最初に実演しています。
バックグラデーションベースの中毒という2つの異なる攻撃アルゴリズムを提案し、合成データと実世界のデータの両方でその効果を実証する。
論文 参考訳(メタデータ) (2020-12-23T14:11:26Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。