論文の概要: Launching Adversarial Attacks against Network Intrusion Detection
Systems for IoT
- arxiv url: http://arxiv.org/abs/2104.12426v1
- Date: Mon, 26 Apr 2021 09:36:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 23:11:39.145134
- Title: Launching Adversarial Attacks against Network Intrusion Detection
Systems for IoT
- Title(参考訳): IoT用ネットワーク侵入検知システムに対する敵攻撃の開始
- Authors: Pavlos Papadopoulos, Oliver Thornewill von Essen, Nikolaos Pitropakis,
Christos Chrysoulas, Alexios Mylonas, William J. Buchanan
- Abstract要約: テクノロジーは、セキュリティが後発である利益主導のモノのインターネット市場にシフトしています。
従来の防御アプローチは、既知の攻撃と未知の攻撃の両方を高精度に検出するのに十分ではない。
機械学習による侵入検知システムは、未知の攻撃を高精度に特定することに成功した。
- 参考スコア(独自算出の注目度): 5.077661193116692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the internet continues to be populated with new devices and emerging
technologies, the attack surface grows exponentially. Technology is shifting
towards a profit-driven Internet of Things market where security is an
afterthought. Traditional defending approaches are no longer sufficient to
detect both known and unknown attacks to high accuracy. Machine learning
intrusion detection systems have proven their success in identifying unknown
attacks with high precision. Nevertheless, machine learning models are also
vulnerable to attacks. Adversarial examples can be used to evaluate the
robustness of a designed model before it is deployed. Further, using
adversarial examples is critical to creating a robust model designed for an
adversarial environment. Our work evaluates both traditional machine learning
and deep learning models' robustness using the Bot-IoT dataset. Our methodology
included two main approaches. First, label poisoning, used to cause incorrect
classification by the model. Second, the fast gradient sign method, used to
evade detection measures. The experiments demonstrated that an attacker could
manipulate or circumvent detection with significant probability.
- Abstract(参考訳): インターネットが新しいデバイスや新興技術で人口が増え続けるにつれ、攻撃面は指数関数的に増加する。
テクノロジーは、セキュリティが後から考えられている利益主導のモノのインターネット市場へとシフトしつつある。
従来の防御アプローチは、既知の攻撃と未知の攻撃の両方を高精度に検出するのに十分ではない。
機械学習による侵入検知システムは、未知の攻撃を高精度に特定することに成功した。
それでも、機械学習モデルは攻撃に対して脆弱である。
逆の例は、デプロイ前に設計したモデルの堅牢性を評価するのに使うことができる。
さらに、敵の例を使うことは、敵の環境向けに設計された堅牢なモデルを作成するのに不可欠である。
私たちの研究は、Bot-IoTデータセットを使用して、従来の機械学習とディープラーニングモデルの堅牢性を評価します。
私たちの方法論には2つの主要なアプローチがありました。
第一に、ラベル中毒はモデルによる誤った分類を引き起こすために使用される。
第2に,検出対策を回避するための高速勾配符号法である。
実験は、攻撃者がかなりの確率で検出を操作または回避できることを実証した。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - A Human-in-the-Middle Attack against Object Detection Systems [4.764637544913963]
本稿では,暗号におけるman-in-the-Middle攻撃に触発された新たなハードウェア攻撃を提案する。
この攻撃はUAP(Universal Adversarial Perturbations)を生成し、USBカメラと検出システムとの間の摂動を注入する。
これらの知見は、自律運転のような安全クリティカルなシステムにおけるディープラーニングモデルの適用に対する深刻な懸念を提起する。
論文 参考訳(メタデータ) (2022-08-15T13:21:41Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - A False Sense of Security? Revisiting the State of Machine
Learning-Based Industrial Intrusion Detection [9.924435476552702]
異常に基づく侵入検知は、産業制御システムに対する新規または未知の攻撃を検出することを約束する。
研究は機械学習による自動学習に重点を置いており、検出率は99%以上に達する。
その結果、未知の攻撃を検出できないことが強調され、検出率は3.2%から14.7%に低下した。
論文 参考訳(メタデータ) (2022-05-18T20:17:33Z) - Detect & Reject for Transferability of Black-box Adversarial Attacks
Against Network Intrusion Detection Systems [0.0]
本稿では,機械学習による侵入検知システムに対する敵ネットワークトラフィックの転送可能性について検討する。
本研究では,機械学習による侵入検知システムに対する対向的ネットワークトラフィックの転送可能性特性の影響を抑えるための防御機構として検出・削除を検討した。
論文 参考訳(メタデータ) (2021-12-22T17:54:54Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Attack Rules: An Adversarial Approach to Generate Attacks for Industrial
Control Systems using Machine Learning [7.205662414865643]
ルールマイニングに基づくアタック生成手法を提案する。
提案手法は、これまでは見られなかった新たな攻撃ベクトルの大部分を構成する30万以上の攻撃パターンを生成することができた。
論文 参考訳(メタデータ) (2021-07-11T20:20:07Z) - Adversarial Attacks on Machine Learning Systems for High-Frequency
Trading [55.30403936506338]
逆機械学習の観点から,アルゴリズム取引のバリュエーションモデルについて検討する。
攻撃コストを最小限に抑えるサイズ制約で、このドメインに特有の新たな攻撃を導入する。
本稿では、金融モデルのロバスト性について研究・評価するための分析ツールとして、これらの攻撃がどのように利用できるかについて論じる。
論文 参考訳(メタデータ) (2020-02-21T22:04:35Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。