論文の概要: Employing Deep Ensemble Learning for Improving the Security of Computer
Networks against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2209.12195v2
- Date: Mon, 17 Apr 2023 13:40:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 00:16:59.182298
- Title: Employing Deep Ensemble Learning for Improving the Security of Computer
Networks against Adversarial Attacks
- Title(参考訳): ディープ・アンサンブル・ラーニングによる敵攻撃に対するコンピュータネットワークのセキュリティ向上
- Authors: Ehsan Nowroozi, Mohammadreza Mohammadi, Erkay Savas, Mauro Conti,
Yassine Mekdad
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、様々なサイバーセキュリティアプリケーションで有望なパフォーマンスを示している。
CNN構造の基盤となる脆弱性は、セキュリティ上の問題を引き起こし、セキュリティ指向のアプリケーションでの使用には不適当である。
本稿では,従来の2クラス分類(2C)と1クラス分類(1C)の高度なセキュリティを併用し,攻撃がない場合に2クラス分類(2C)の性能を向上するアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 22.2119274519877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past few years, Convolutional Neural Networks (CNN) have demonstrated
promising performance in various real-world cybersecurity applications, such as
network and multimedia security. However, the underlying fragility of CNN
structures poses major security problems, making them inappropriate for use in
security-oriented applications including such computer networks. Protecting
these architectures from adversarial attacks necessitates using security-wise
architectures that are challenging to attack.
In this study, we present a novel architecture based on an ensemble
classifier that combines the enhanced security of 1-Class classification (known
as 1C) with the high performance of conventional 2-Class classification (known
as 2C) in the absence of attacks.Our architecture is referred to as the
1.5-Class (SPRITZ-1.5C) classifier and constructed using a final dense
classifier, one 2C classifier (i.e., CNNs), and two parallel 1C classifiers
(i.e., auto-encoders). In our experiments, we evaluated the robustness of our
proposed architecture by considering eight possible adversarial attacks in
various scenarios. We performed these attacks on the 2C and SPRITZ-1.5C
architectures separately. The experimental results of our study showed that the
Attack Success Rate (ASR) of the I-FGSM attack against a 2C classifier trained
with the N-BaIoT dataset is 0.9900. In contrast, the ASR is 0.0000 for the
SPRITZ-1.5C classifier.
- Abstract(参考訳): 過去数年間、畳み込みニューラルネットワーク(CNN)は、ネットワークやマルチメディアセキュリティなど、さまざまな現実世界のサイバーセキュリティアプリケーションで有望なパフォーマンスを示している。
しかし、CNN構造の脆弱性は大きなセキュリティ問題を引き起こし、そのようなコンピュータネットワークを含むセキュリティ指向アプリケーションでの使用には不適当である。
これらのアーキテクチャを敵攻撃から守るには、攻撃が困難なセキュリティに関するアーキテクチャを使う必要がある。
本研究では,攻撃のない場合の1クラス分類(1C)と従来の2クラス分類(2C)の高度な性能を組み合わせたアンサンブル分類器に基づく新しいアーキテクチャを提案する。このアーキテクチャは1.5クラス分類器(SPRITZ-1.5C)と呼ばれ,最終密分分類器,2C分類器(CNN),2つの並列1C分類器(オートエンコーダ)を用いて構築されている。
実験では, 様々なシナリオにおける8つの敵攻撃を考慮し, 提案アーキテクチャの堅牢性を評価した。
我々は2CアーキテクチャとSPRITZ-1.5Cアーキテクチャを別々に攻撃した。
実験の結果,N-BaIoTデータセットを用いてトレーニングした2C分類器に対するI-FGSM攻撃の攻撃成功率(ASR)は0.9900であった。
対照的に、ASRはSPRITZ-1.5C分類器の0.0000である。
関連論文リスト
- Improving Robustness to Model Inversion Attacks via Sparse Coding Architectures [4.962316236417777]
最近のモデル反転攻撃アルゴリズムでは、ニューラルネットワークのプライベートかつ潜在的に敏感なトレーニングデータを繰り返しクエリすることで、敵が再構築することができる。
我々は,このタイプの攻撃に対して優れたロバスト性を得るために,スパースコーディング層を利用する新しいネットワークアーキテクチャを開発した。
論文 参考訳(メタデータ) (2024-03-21T18:26:23Z) - A Dual-Tier Adaptive One-Class Classification IDS for Emerging Cyberthreats [3.560574387648533]
2層構造を有する一級分類駆動型IDSシステムを提案する。
第1層は通常の活動と攻撃/脅威を区別し、第2層は検出された攻撃が未知であるかを判定する。
このモデルは、目に見えない攻撃を識別するだけでなく、目に見えない攻撃をクラスタリングすることでそれらを再トレーニングするために使用する。
論文 参考訳(メタデータ) (2024-03-17T12:26:30Z) - usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - Explainable and Optimally Configured Artificial Neural Networks for
Attack Detection in Smart Homes [0.5161531917413708]
本稿では,5つのカテゴリ攻撃と9つのサブカテゴリ攻撃を識別するためのANNアーキテクチャの構成,性能,評価について述べる。
非常に最近のIoTデータセットを使用して、我々のアプローチは、侵入検知の99.9%、99.7%、97.7%の精度で、攻撃のバイナリ、カテゴリ、サブカテゴリレベルの分類で高いパフォーマンスを示した。
論文 参考訳(メタデータ) (2022-05-17T01:25:32Z) - Post-Training Detection of Backdoor Attacks for Two-Class and
Multi-Attack Scenarios [22.22337220509128]
バックドア攻撃(BA)は、ディープニューラルネットワーク分類器に対する新たな脅威である。
本稿では,BPリバースエンジニアリングに基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T22:21:38Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Adversarial Attacks on ML Defense Models Competition [82.37504118766452]
清華大学のTSAILグループとAlibaba Securityグループがこの競争を組織した。
この競争の目的は、敵の堅牢性を評価するために、新しい攻撃アルゴリズムを動機付けることである。
論文 参考訳(メタデータ) (2021-10-15T12:12:41Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Adaptive Aggregation Networks for Class-Incremental Learning [102.20140790771265]
CIL(Class-Incremental Learning)は,段階別クラス数の増加にともなう分類モデルを学習することを目的としている。
CILの固有の問題は、古いクラスと新しいクラスの学習の間の安定性-塑性ジレンマである。
論文 参考訳(メタデータ) (2020-10-10T18:24:24Z) - Device-Robust Acoustic Scene Classification Based on Two-Stage
Categorization and Data Augmentation [63.98724740606457]
我々は,GT,USTC,Tencent,UKEの4つのグループからなる共同で,DCASE 2020 Challengeの第1タスク - 音響シーン分類(ASC)に取り組む。
タスク1aは、複数の(実とシミュレートされた)デバイスで記録されたオーディオ信号のASCを10種類の微細なクラスにフォーカスする。
Task 1bは、低複雑さのソリューションを使用して、データを3つの上位クラスに分類することに関心がある。
論文 参考訳(メタデータ) (2020-07-16T15:07:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。