論文の概要: Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification
- arxiv url: http://arxiv.org/abs/2301.13122v1
- Date: Mon, 30 Jan 2023 18:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 13:27:59.706316
- Title: Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification
- Title(参考訳): IoT侵入検知と分類のための逆現実主義とロバスト学習に向けて
- Authors: Jo\~ao Vitorino, Isabel Pra\c{c}a, Eva Maia
- Abstract要約: IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Internet of Things (IoT) faces tremendous security challenges. Machine
learning models can be used to tackle the growing number of cyber-attack
variations targeting IoT systems, but the increasing threat posed by
adversarial attacks restates the need for reliable defense strategies. This
work describes the types of constraints required for an adversarial
cyber-attack example to be realistic and proposes a methodology for a
trustworthy adversarial robustness analysis with a realistic adversarial
evasion attack vector. The proposed methodology was used to evaluate three
supervised algorithms, Random Forest (RF), Extreme Gradient Boosting (XGB), and
Light Gradient Boosting Machine (LGBM), and one unsupervised algorithm,
Isolation Forest (IFOR). Constrained adversarial examples were generated with
the Adaptative Perturbation Pattern Method (A2PM), and evasion attacks were
performed against models created with regular and adversarial training. Even
though RF was the least affected in binary classification, XGB consistently
achieved the highest accuracy in multi-class classification. The obtained
results evidence the inherent susceptibility of tree-based algorithms and
ensembles to adversarial evasion attacks and demonstrates the benefits of
adversarial training and a security by design approach for a more robust IoT
network intrusion detection.
- Abstract(参考訳): IoT(Internet of Things)は重大なセキュリティ上の課題に直面している。
マシンラーニングモデルは、IoTシステムを対象としたサイバー攻撃の増加に対処するために使用できるが、敵攻撃による脅威の増加は、信頼できる防衛戦略の必要性を回復させる。
本研究は,敵のサイバー攻撃例が現実的であるために必要な制約の種類を記述し,現実的敵の回避攻撃ベクトルを用いた信頼に値する敵のロバストネス分析手法を提案する。
提案手法は,ランダムフォレスト (rf), 極値勾配ブースティング (xgb), および光勾配ブースティングマシン (lgbm), および非教師なしアルゴリズムであるアイソレーションフォレスト (ifor) の3つの教師ありアルゴリズムを評価した。
適応摂動パターン法 (Adaptative Perturbation Pattern Method, A2PM) を用いて制約付き対向例を生成し, 正規および対向訓練で作成したモデルに対して回避攻撃を行った。
RFは二分分類において最も影響を受けなかったが、XGBは多クラス分類において常に高い精度を達成した。
その結果,木に基づくアルゴリズムやアンサンブルの逆回避攻撃に対する感受性を実証し,より堅牢なIoTネットワーク侵入検出のための設計アプローチによる敵のトレーニングとセキュリティのメリットを実証した。
関連論文リスト
- Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Interpretability is a Kind of Safety: An Interpreter-based Ensemble for
Adversary Defense [28.398901783858005]
我々は,強固な防御敵に対するX-Ensembleと呼ばれるインタプリタベースのアンサンブルフレームワークを提案する。
X-エンサンブルはランダムフォレスト(RF)モデルを用いて、準検出器をアンサンブル検出器に結合し、敵のハイブリッド攻撃防御を行う。
論文 参考訳(メタデータ) (2023-04-14T04:32:06Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - AdIoTack: Quantifying and Refining Resilience of Decision Tree Ensemble
Inference Models against Adversarial Volumetric Attacks on IoT Networks [1.1172382217477126]
本稿では,敵攻撃に対する決定木の脆弱性を強調するシステムであるAdIoTackを紹介する。
最悪のシナリオのモデルを評価するために、AdIoTackは、ホワイトボックスの敵学習を実行し、ボリューム攻撃を成功させる。
モデルがIoTデバイスに対する非敵のボリューム攻撃を検知し、多くの敵の攻撃を欠いていることを実証する。
論文 参考訳(メタデータ) (2022-03-18T08:18:03Z) - Adaptative Perturbation Patterns: Realistic Adversarial Learning for
Robust NIDS [0.3867363075280543]
アドリアックは、機械学習とそれに依存するシステムにとって大きな脅威となる。
この研究は、グレーボックス設定でこれらの制約を満たすためにAdaptative Perturbation Pattern Method (A2PM)を導入する。
A2PMは、各クラスの特性に独立して適応し、有効で一貫性のあるデータ摂動を生成するパターン配列に依存している。
論文 参考訳(メタデータ) (2022-03-08T17:52:09Z) - A Comparative Analysis of Machine Learning Techniques for IoT Intrusion
Detection [0.0]
本稿では,IoT-23データセットの9つのマルウェアキャプチャにおける教師付き・教師なし・強化学習手法の比較分析を行った。
SVM, Extreme Gradient Boosting (XGBoost), Light Gradient Boosting Machine (LightGBM), isolation Forest (iForest), Local Outlier Factor (LOF), Deep Reinforcement Learning (DRL) model based on a Double Deep Q-Network (DDQN)。
論文 参考訳(メタデータ) (2021-11-25T16:14:54Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。