論文の概要: TEAM: Temporal Adversarial Examples Attack Model against Network Intrusion Detection System Applied to RNN
- arxiv url: http://arxiv.org/abs/2409.12472v1
- Date: Thu, 19 Sep 2024 05:26:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 14:41:29.245246
- Title: TEAM: Temporal Adversarial Examples Attack Model against Network Intrusion Detection System Applied to RNN
- Title(参考訳): TEAM:RNNに応用したネットワーク侵入検知システムに対する攻撃モデル
- Authors: Ziyi Liu, Dengpan Ye, Long Tang, Yunming Zhang, Jiacheng Deng,
- Abstract要約: 我々は,textbfTemporal adversarial textbfExamples textbfAttack textbfModel textbf(TEAM)と呼ばれる特徴再構成に基づく新しいRNN敵攻撃モデルを提案する。
ほとんどの攻撃カテゴリーでは、TEAMはブラックボックスとホワイトボックスの両方でのNIDSの誤判定率を改善し、96.68%以上に達する。
- 参考スコア(独自算出の注目度): 14.474274997214845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of artificial intelligence, neural networks play a key role in network intrusion detection systems (NIDS). Despite the tremendous advantages, neural networks are susceptible to adversarial attacks. To improve the reliability of NIDS, many research has been conducted and plenty of solutions have been proposed. However, the existing solutions rarely consider the adversarial attacks against recurrent neural networks (RNN) with time steps, which would greatly affect the application of NIDS in real world. Therefore, we first propose a novel RNN adversarial attack model based on feature reconstruction called \textbf{T}emporal adversarial \textbf{E}xamples \textbf{A}ttack \textbf{M}odel \textbf{(TEAM)}, which applied to time series data and reveals the potential connection between adversarial and time steps in RNN. That is, the past adversarial examples within the same time steps can trigger further attacks on current or future original examples. Moreover, TEAM leverages Time Dilation (TD) to effectively mitigates the effect of temporal among adversarial examples within the same time steps. Experimental results show that in most attack categories, TEAM improves the misjudgment rate of NIDS on both black and white boxes, making the misjudgment rate reach more than 96.68%. Meanwhile, the maximum increase in the misjudgment rate of the NIDS for subsequent original samples exceeds 95.57%.
- Abstract(参考訳): 人工知能の発展に伴い、ニューラルネットワークはネットワーク侵入検知システム(NIDS)において重要な役割を果たす。
膨大なアドバンテージにもかかわらず、ニューラルネットワークは敵の攻撃に影響を受けやすい。
NIDSの信頼性を向上させるため、多くの研究が行われ、多くの解決策が提案されている。
しかし、既存のソリューションでは、実世界におけるNIDSの適用に大きな影響を及ぼすような、時間ステップを伴うリカレントニューラルネットワーク(RNN)に対する敵攻撃を考えることは滅多にない。
そこで我々はまず, 時系列データに適用し, 対角線と時間ステップの潜在的な関係を明らかにする, 特徴再構成に基づく新しい RNN 対角線攻撃モデルである \textbf{T} を提案する。
つまり、過去の逆の例は同時に、現在のまたは将来のオリジナルの例に対するさらなる攻撃を引き起こす可能性がある。
さらに、TEAMはTD(Time Dilation)を利用して、同じ時間ステップで相手の例間の時間的効果を効果的に緩和する。
実験の結果、ほとんどの攻撃カテゴリーにおいて、TEAMはブラックボックスとホワイトボックスの両方でのNIDSの誤判定率を改善し、96.68%以上に達することがわかった。
一方、元の標本に対するNIDSの誤判定率の最大増加率は95.57%を超えた。
関連論文リスト
- Exploring DNN Robustness Against Adversarial Attacks Using Approximate Multipliers [1.3820778058499328]
ディープニューラルネットワーク(DNN)は、ヘルスケアや自動運転など、多くの現実世界のアプリケーションで進歩している。
高い計算複雑性と敵攻撃に対する脆弱性は、現在進行中の課題である。
DNN層モデルにおける最先端近似乗算器の高精度な乗算器を均一に置き換えることで、DNNの様々な敵攻撃に対するロバスト性を、実現可能な時間で探索する。
論文 参考訳(メタデータ) (2024-04-17T18:03:12Z) - Robust Overfitting Does Matter: Test-Time Adversarial Purification With FGSM [5.592360872268223]
防衛戦略は通常、特定の敵攻撃法のためにディープニューラルネットワーク(DNN)を訓練し、この種の敵攻撃に対する防御において優れた堅牢性を達成することができる。
しかしながら、不慣れな攻撃モダリティに関する評価を受けると、実証的な証拠はDNNの堅牢性の顕著な劣化を示す。
ほとんどの防衛方法は、DNNの敵の堅牢性を改善するために、クリーンな例の精度を犠牲にすることが多い。
論文 参考訳(メタデータ) (2024-03-18T03:54:01Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Mixture GAN For Modulation Classification Resiliency Against Adversarial
Attacks [55.92475932732775]
本稿では,GANをベースとした新たな生成逆ネットワーク(Generative Adversarial Network, GAN)を提案する。
GANベースの目的は、DNNベースの分類器に入力する前に、敵の攻撃例を排除することである。
シミュレーションの結果,DNNをベースとしたAMCの精度が約81%に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-29T22:30:32Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Generating Adversarial Examples with Graph Neural Networks [26.74003742013481]
両手法の強みを生かしたグラフニューラルネットワーク(GNN)に基づく新たな攻撃を提案する。
PGDアタック,MI-FGSM,Carini,Wagnerアタックなど,最先端の敵攻撃に勝っていることを示す。
我々は、敵攻撃のより実証的な比較を可能にするために特別に設計された、新しい挑戦的なデータセットを提供する。
論文 参考訳(メタデータ) (2021-05-30T22:46:41Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Optimizing Information Loss Towards Robust Neural Networks [0.0]
ニューラルネットワーク(NN)は、敵の例に対して脆弱である。
テクステントロピックリトレーニングと呼ばれる新しいトレーニング手法を提案する。
情報理論にインスパイアされた分析に基づいて、エントロピー的リトレーニングは敵の訓練の効果を模倣する。
論文 参考訳(メタデータ) (2020-08-07T10:12:31Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。