論文の概要: UNBUS: Uncertainty-aware Deep Botnet Detection System in Presence of
Perturbed Samples
- arxiv url: http://arxiv.org/abs/2204.09502v1
- Date: Mon, 18 Apr 2022 21:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 15:41:32.450765
- Title: UNBUS: Uncertainty-aware Deep Botnet Detection System in Presence of
Perturbed Samples
- Title(参考訳): unbus: 不確実性を考慮した深部ボットネット検出システム
- Authors: Rahim Taheri
- Abstract要約: ボットネット検出には極めて低い偽陽性率(FPR)が必要であるが、現代のディープラーニングでは一般的に達成できない。
本稿では,98%以上の精度のボットネット分類のためのLSTMに基づく2つの分類アルゴリズムについて述べる。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A rising number of botnet families have been successfully detected using deep
learning architectures. While the variety of attacks increases, these
architectures should become more robust against attacks. They have been proven
to be very sensitive to small but well constructed perturbations in the input.
Botnet detection requires extremely low false-positive rates (FPR), which are
not commonly attainable in contemporary deep learning. Attackers try to
increase the FPRs by making poisoned samples. The majority of recent research
has focused on the use of model loss functions to build adversarial examples
and robust models. In this paper, two LSTM-based classification algorithms for
botnet classification with an accuracy higher than 98\% are presented. Then,
the adversarial attack is proposed, which reduces the accuracy to about30\%.
Then, by examining the methods for computing the uncertainty, the defense
method is proposed to increase the accuracy to about 70\%. By using the deep
ensemble and stochastic weight averaging quantification methods it has been
investigated the uncertainty of the accuracy in the proposed methods.
- Abstract(参考訳): ディープラーニングアーキテクチャを使って、ボットネットファミリーの数が増加している。
さまざまな攻撃が増加する一方で、これらのアーキテクチャは攻撃に対してより堅牢になるはずだ。
これらは入力の小さいがよく構築された摂動に非常に敏感であることが証明されている。
ボットネット検出には極めて低い偽陽性率(FPR)が必要であるが、現代のディープラーニングでは一般的に達成できない。
攻撃者は、有毒なサンプルを作ることでFPRを増やそうとします。
最近の研究の大半は、逆の例と堅牢なモデルを構築するためのモデル損失関数の使用に焦点を当てている。
本稿では,98%以上の精度のボットネット分類のためのLSTMに基づく2つの分類アルゴリズムについて述べる。
そして、敵の攻撃が提案され、精度が約30\%に低下する。
そこで, 不確実性を計算する手法を検討することで, 精度を約70\%に向上させる防衛法を提案する。
深層アンサンブル法と確率的重み平均定量法を用いて,提案手法における精度の不確実性について検討した。
関連論文リスト
- Towards Robust IoT Defense: Comparative Statistics of Attack Detection in Resource-Constrained Scenarios [1.3812010983144802]
リソースの制約は、IoTスマートデバイスに重大なサイバーセキュリティの脅威をもたらす。
我々は、資源制約下でのサイバー攻撃検出アルゴリズムの広範な統計的解析を行い、最も効率的なものを特定する。
論文 参考訳(メタデータ) (2024-10-10T10:58:03Z) - Comprehensive Botnet Detection by Mitigating Adversarial Attacks, Navigating the Subtleties of Perturbation Distances and Fortifying Predictions with Conformal Layers [1.6001193161043425]
ボットネット(Botnet)は、悪意あるアクターによって制御されるコンピュータネットワークで、重要なサイバーセキュリティ上の課題を提示する。
本研究は、機械学習ベースのボットネット検出システムを弱体化させることを目的として、攻撃者が引き起こす高度な敵操作に対処する。
ISCXデータセットとISOTデータセットに基づいてトレーニングされた機械学習とディープラーニングアルゴリズムを活用するフローベース検出アプローチを導入する。
論文 参考訳(メタデータ) (2024-09-01T08:53:21Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Improving Botnet Detection with Recurrent Neural Network and Transfer
Learning [5.602292536933117]
ボットネット検出は、ボットネットの拡散を防ぎ、悪意のある活動を防ぐための重要なステップである。
機械学習(ML)を用いた最近のアプローチでは、以前のアプローチよりもパフォーマンスが向上した。
Recurrent Variational Autoencoder (RVAE) を用いた新しいボットネット検出法を提案する。
論文 参考訳(メタデータ) (2021-04-26T14:05:01Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。