論文の概要: Adversarial Explainability: Utilizing Explainable Machine Learning in Bypassing IoT Botnet Detection Systems
- arxiv url: http://arxiv.org/abs/2310.00070v1
- Date: Fri, 29 Sep 2023 18:20:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 14:15:19.811688
- Title: Adversarial Explainability: Utilizing Explainable Machine Learning in Bypassing IoT Botnet Detection Systems
- Title(参考訳): 敵対的説明可能性:IoTボットネット検出システムのバイパスにおける説明可能な機械学習の利用
- Authors: Mohammed M. Alani, Atefeh Mashatan, Ali Miri,
- Abstract要約: 機械学習に基づくボットネット検出は、近年大きな飛躍を遂げている。
機械学習ベースのサイバーセキュリティシステムに対する敵対的な攻撃は、これらのソリューションに重大な脅威をもたらしている。
本稿では,ボットネット検出システムによる検出の回避において,機械学習モデルの説明可能性を利用した新たな攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Botnet detection based on machine learning have witnessed significant leaps in recent years, with the availability of large and reliable datasets that are extracted from real-life scenarios. Consequently, adversarial attacks on machine learning-based cybersecurity systems are posing a significant threat to the practicality of these solutions. In this paper, we introduce a novel attack that utilizes machine learning model's explainability in evading detection by botnet detection systems. The proposed attack utilizes information obtained from model's explainability to build adversarial samples that can evade detection in a blackbox setting. The proposed attack was tested on a trained IoT botnet detection systems and was capable of bypassing the botnet detection with 0% detection by altering one feature only to generate the adversarial samples.
- Abstract(参考訳): 機械学習に基づくボットネット検出は、現実のシナリオから抽出された大規模で信頼性の高いデータセットが利用できるなど、近年大きな飛躍を遂げている。
その結果、機械学習ベースのサイバーセキュリティシステムに対する敵対的な攻撃は、これらのソリューションの実用性に重大な脅威をもたらしている。
本稿では,ボットネット検出システムによる検出の回避において,機械学習モデルの説明可能性を利用した新たな攻撃手法を提案する。
提案攻撃では,モデルの説明可能性から得られた情報を用いて,ブラックボックス設定で検出を回避できる敵サンプルを構築する。
提案した攻撃は、トレーニング済みのIoTボットネット検出システムでテストされ、一方の機能を変更して敵のサンプルを生成することで、ボットネット検出を0%で回避することができた。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Early Detection of Network Attacks Using Deep Learning [0.0]
ネットワーク侵入検知システム(英: Network Intrusion Detection System、IDS)は、ネットワークトラフィックを観察することによって、不正かつ悪意のない行動を特定するためのツールである。
本稿では,攻撃対象のシステムにダメージを与える前に,ネットワーク攻撃を防止するために,エンド・ツー・エンドの早期侵入検知システムを提案する。
論文 参考訳(メタデータ) (2022-01-27T16:35:37Z) - Detect & Reject for Transferability of Black-box Adversarial Attacks
Against Network Intrusion Detection Systems [0.0]
本稿では,機械学習による侵入検知システムに対する敵ネットワークトラフィックの転送可能性について検討する。
本研究では,機械学習による侵入検知システムに対する対向的ネットワークトラフィックの転送可能性特性の影響を抑えるための防御機構として検出・削除を検討した。
論文 参考訳(メタデータ) (2021-12-22T17:54:54Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - CAN-LOC: Spoofing Detection and Physical Intrusion Localization on an
In-Vehicle CAN Bus Based on Deep Features of Voltage Signals [48.813942331065206]
車両内ネットワークのためのセキュリティ強化システムを提案する。
提案システムは,CANバスで測定した電圧信号から抽出した深い特徴を処理する2つの機構を含む。
論文 参考訳(メタデータ) (2021-06-15T06:12:33Z) - Launching Adversarial Attacks against Network Intrusion Detection
Systems for IoT [5.077661193116692]
テクノロジーは、セキュリティが後発である利益主導のモノのインターネット市場にシフトしています。
従来の防御アプローチは、既知の攻撃と未知の攻撃の両方を高精度に検出するのに十分ではない。
機械学習による侵入検知システムは、未知の攻撃を高精度に特定することに成功した。
論文 参考訳(メタデータ) (2021-04-26T09:36:29Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Botnet Detection Using Recurrent Variational Autoencoder [4.486436314247216]
ボットネットは悪質なアクターによってますます利用され、多くのインターネットユーザーに脅威を与えている。
本稿では,ボットネット検出のための新しい機械学習手法であるRecurrent Variational Autoencoder (RVAE)を提案する。
RVAEは文献で発表された最もよく知られた結果と同じ精度でボットネットを検出できることを示した。
論文 参考訳(メタデータ) (2020-04-01T05:03:34Z) - Automating Botnet Detection with Graph Neural Networks [106.24877728212546]
ボットネットは、DDoS攻撃やスパムなど、多くのネットワーク攻撃の主要なソースとなっている。
本稿では,最新のディープラーニング技術を用いてボットネット検出のポリシーを自動学習するニューラルネットワーク設計の課題について考察する。
論文 参考訳(メタデータ) (2020-03-13T15:34:33Z) - NAttack! Adversarial Attacks to bypass a GAN based classifier trained to
detect Network intrusion [0.3007949058551534]
機械学習の台頭以前、攻撃を示唆するネットワーク異常は、巧妙なルールを用いて検出された。
ネットワーク異常に対する機械学習の進歩により、人間がサイバー防御システムをバイパスする方法を理解することは容易ではない。
本稿では, 分類器を構築し, ネットワークデータの逆例で訓練しても, 敵攻撃を利用でき, システムを破壊することができることを示す。
論文 参考訳(メタデータ) (2020-02-20T01:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。