論文の概要: Exploring the Effect of DNN Depth on Adversarial Attacks in Network Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2510.19761v1
- Date: Wed, 22 Oct 2025 16:48:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.154002
- Title: Exploring the Effect of DNN Depth on Adversarial Attacks in Network Intrusion Detection Systems
- Title(参考訳): ネットワーク侵入検知システムにおける敵攻撃に対するDNN深さの影響の探索
- Authors: Mohamed ElShehaby, Ashraf Matrawy,
- Abstract要約: アドリアックは機械学習(ML)システムに重大な課題をもたらす。
本稿では,ディープニューラルネットワークの層深さ増加が敵攻撃に対する堅牢性に影響を及ぼすかどうかを検討する。
- 参考スコア(独自算出の注目度): 0.6588840794922407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks pose significant challenges to Machine Learning (ML) systems and especially Deep Neural Networks (DNNs) by subtly manipulating inputs to induce incorrect predictions. This paper investigates whether increasing the layer depth of deep neural networks affects their robustness against adversarial attacks in the Network Intrusion Detection System (NIDS) domain. We compare the adversarial robustness of various deep neural networks across both \ac{NIDS} and computer vision domains (the latter being widely used in adversarial attack experiments). Our experimental results reveal that in the NIDS domain, adding more layers does not necessarily improve their performance, yet it may actually significantly degrade their robustness against adversarial attacks. Conversely, in the computer vision domain, adding more layers exhibits a more modest impact on robustness. These findings can guide the development of robust neural networks for (NIDS) applications and highlight the unique characteristics of network security domains within the (ML) landscape.
- Abstract(参考訳): 敵攻撃は機械学習(ML)システム、特にディープニューラルネットワーク(DNN)に対して、入力を微調整して誤った予測を誘導することで重大な課題を生じさせる。
本稿では,ネットワーク侵入検知システム(NIDS)領域において,ディープニューラルネットワークの層深さ増加が敵攻撃に対する堅牢性に影響を及ぼすかどうかを検討する。
本稿では, 各種深部ニューラルネットワークの対向的堅牢性について, コンピュータビジョン領域(後者は敵攻撃実験で広く利用されている)を比較した。
実験の結果、NIDSドメインでは、レイヤーの追加は必ずしもパフォーマンスを向上するわけではないが、実際には敵攻撃に対するロバスト性を著しく低下させる可能性があることが明らかとなった。
逆に、コンピュータビジョン領域では、より多くのレイヤを追加することで、ロバスト性に対するより控えめな影響が示される。
これらの発見は、(NIDS)アプリケーションのための堅牢なニューラルネットワークの開発をガイドし、(ML)ランドスケープ内のネットワークセキュリティドメインのユニークな特徴を強調します。
関連論文リスト
- Investigating Application of Deep Neural Networks in Intrusion Detection System Design [0.0]
研究の目的は、ディープニューラルネットワーク(DNN)のアプリケーションが、悪意のあるネットワーク侵入を正確に検出し、特定できるかどうかを学習することである。
実験結果は,ネットワーク侵入の分類を正確に正確に識別するためのモデルのサポートを示さなかった。
論文 参考訳(メタデータ) (2025-01-27T04:06:30Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Adversarial Attacks on Spiking Convolutional Networks for Event-based
Vision [0.6999740786886537]
我々は、ホワイトボックスの敵対的攻撃アルゴリズムが、イベントベースの視覚データの離散的かつスパースな性質にどのように適応できるかを示す。
また、ニューロモルフィックハードウェア上でのこれらの摂動の有効性を初めて検証した。
論文 参考訳(メタデータ) (2021-10-06T17:20:05Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Exploiting Vulnerabilities in Deep Neural Networks: Adversarial and
Fault-Injection Attacks [14.958919450708157]
まず、ニューラルネットワークベースのシステムのセキュリティ攻撃を生成するために悪用できるさまざまな脆弱性について議論します。
次に、DNNに対する既存の逆方向およびフォールトインジェクションに基づく攻撃の概要を示す。
論文 参考訳(メタデータ) (2021-05-05T08:11:03Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Evaluation of Adversarial Training on Different Types of Neural Networks
in Deep Learning-based IDSs [3.8073142980733]
我々は、異なる回避攻撃の有効性と、レジリエンス深層学習に基づくIDSの訓練方法に焦点をあてる。
我々は min-max アプローチを用いて、敵の例に対して頑健なIDSを訓練する問題を定式化する。
異なるディープラーニングアルゴリズムと異なるベンチマークデータセットに関する実験により、敵の訓練に基づくmin-maxアプローチによる防御が、よく知られた5つの敵の攻撃方法に対する堅牢性を向上することを示した。
論文 参考訳(メタデータ) (2020-07-08T23:33:30Z) - NeuroAttack: Undermining Spiking Neural Networks Security through
Externally Triggered Bit-Flips [11.872768663147776]
Spiking Neural Networks(SNN)は、機械学習システムにおける正確性、リソース利用、エネルギー効率の課題に対する、有望な解決策として登場した。
これらのシステムは主流になってきていますが、本質的にセキュリティと信頼性の問題があります。
我々は低レベルの信頼性問題を利用してSNNの整合性を脅かすクロスレイヤー攻撃であるNeuroAttackを提案する。
論文 参考訳(メタデータ) (2020-05-16T16:54:00Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。