論文の概要: The Role of Learning in Attacking Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2602.10299v1
- Date: Tue, 10 Feb 2026 21:15:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.282828
- Title: The Role of Learning in Attacking Intrusion Detection Systems
- Title(参考訳): 侵入検知システムにおける学習の役割
- Authors: Kyle Domico, Jean-Charles Noirot Ferrand, Patrick McDaniel,
- Abstract要約: 本稿では、強化学習(RL)を用いて訓練された戦略を実装し、MLベースのNIDSを回避する軽量な敵エージェントを提案する。
これらの軽量エージェントによる攻撃は、非常に効果的(最大48.9%の攻撃成功率)であり、非常に高速(攻撃を行うには5.72ms未満)であり、無視できる資源を必要とすることを実証する。
- 参考スコア(独自算出の注目度): 1.5656617176729164
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent work on network attacks have demonstrated that ML-based network intrusion detection systems (NIDS) can be evaded with adversarial perturbations. However, these attacks rely on complex optimizations that have large computational overheads, making them impractical in many real-world settings. In this paper, we introduce a lightweight adversarial agent that implements strategies (policies) trained via reinforcement learning (RL) that learn to evade ML-based NIDS without requiring online optimization. This attack proceeds by (1) offline training, where the agent learns to evade a surrogate ML model by perturbing malicious flows using network traffic data assumed to be collected via reconnaissance, then (2) deployment, where the trained agent is used in a compromised device controlled by an attacker to evade ML-based NIDS using learned attack strategies. We evaluate our approach across diverse NIDS and several white-, gray-, and black-box threat models. We demonstrate that attacks using these lightweight agents can be highly effective (reaching up to 48.9% attack success rate), extremely fast (requiring as little as 5.72ms to craft an attack), and require negligible resources (e.g., 0.52MB of memory). Through this work, we demonstrate that future botnets driven by lightweight learning-based agents can be highly effective and widely deployable in diverse environments of compromised devices.
- Abstract(参考訳): ネットワーク攻撃に関する最近の研究は、MLベースのネットワーク侵入検知システム(NIDS)を敵の摂動によって回避できることを実証している。
しかし、これらの攻撃は計算オーバーヘッドが大きい複雑な最適化に依存しており、現実の多くの環境では現実的ではない。
本稿では、強化学習(RL)を通じて訓練された戦略(政策)を実装し、オンライン最適化を必要とせずにMLベースのNIDSを回避する軽量な敵エージェントを提案する。
この攻撃は、(1)オフライントレーニングにより、エージェントが、偵察によって収集されると思われるネットワークトラフィックデータを用いて悪意あるフローを摂動することで、代理MLモデルを回避することを学習し、(2)攻撃者が制御する妥協されたデバイスにおいて、トレーニングされたエージェントを使用して、学習された攻撃戦略を用いて、MLベースのNIDSを回避する。
我々は、様々なNIDSおよび複数のホワイト、グレー、ブラックボックスの脅威モデルに対するアプローチを評価した。
これらの軽量エージェントによる攻撃は、非常に効果的(最大48.9%の攻撃成功率)で、非常に高速(攻撃を行うには5.72ms未満)で、無視可能なリソース(例えば、0.52MBのメモリ)を必要とする。
この研究を通じて、軽量学習エージェントによって駆動される将来的なボットネットは、様々なデバイス環境において、非常に効果的で広範囲にデプロイ可能であることを実証した。
関連論文リスト
- Adversarial Reinforcement Learning for Large Language Model Agent Safety [20.704989548285372]
大きな言語モデル(LLM)エージェントは、複雑なタスクを完了するためにGoogle Searchのようなツールを利用することができる。
現在の防衛戦略は、既知の攻撃のデータセットに精巧なLLMエージェントを頼っている。
対戦型強化学習(RL)を両プレイヤーゼロサムゲームとして定式化して活用する新しいフレームワークであるエージェント安全のための敵強化学習(ARLAS)を提案する。
論文 参考訳(メタデータ) (2025-10-06T23:09:18Z) - A Defensive Framework Against Adversarial Attacks on Machine Learning-Based Network Intrusion Detection Systems [3.155715652244226]
従来のシグネチャベースのネットワーク侵入検知システム(NIDS)はゼロデイ攻撃に対して不十分である。
従来のシグネチャベースのNIDSは、バイパス検出のためにネットワークトラフィックを微妙に操作する敵の回避攻撃に対して脆弱である。
本稿では,ML ベースの NIDS の堅牢性を高める新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-21T16:22:11Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Adversarial training for tabular data with attack propagation [1.9826772682131455]
トレーニングループ内の2つの空間間で攻撃が伝播する新しい形態の対角訓練を提案する。
本手法は中程度の攻撃で約30%の性能低下を防止でき、非常に攻撃的な攻撃では必須であることを示す。
論文 参考訳(メタデータ) (2023-07-28T17:12:46Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Evaluating and Improving Adversarial Robustness of Machine
Learning-Based Network Intrusion Detectors [21.86766733460335]
本研究では,ML ベースの NIDS のロバスト性を評価するため,グレー/ブラックボックスのトラフィック空間攻撃に関する最初の系統的研究を行った。
私たちの仕事は、以下の点で以前のものより優れています。
また,システムロバスト性を改善するために,敵攻撃に対する防御策を提案する。
論文 参考訳(メタデータ) (2020-05-15T13:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。