論文の概要: AdaDoS: Adaptive DoS Attack via Deep Adversarial Reinforcement Learning in SDN
- arxiv url: http://arxiv.org/abs/2510.20566v1
- Date: Thu, 23 Oct 2025 13:51:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.029695
- Title: AdaDoS: Adaptive DoS Attack via Deep Adversarial Reinforcement Learning in SDN
- Title(参考訳): AdaDoS: SDNのディープラーニングによる適応DoS攻撃
- Authors: Wei Shao, Yuhao Wang, Rongguang He, Muhammad Ejaz Ahmed, Seyit Camtepe,
- Abstract要約: 本稿では,既存のDoS検出器による検出を回避しつつ,ネットワーク操作を妨害するアダプティブアタックモデルであるAdaDoSを紹介する。
AdaDoSは、DoSライクな攻撃シーケンスを開発するための敵の強化学習の最初の応用である。
- 参考スコア(独自算出の注目度): 11.539067583230475
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing defence mechanisms have demonstrated significant effectiveness in mitigating rule-based Denial-of-Service (DoS) attacks, leveraging predefined signatures and static heuristics to identify and block malicious traffic. However, the emergence of AI-driven techniques presents new challenges to SDN security, potentially compromising the efficacy of existing defence mechanisms. In this paper, we introduce~AdaDoS, an adaptive attack model that disrupt network operations while evading detection by existing DoS-based detectors through adversarial reinforcement learning (RL). Specifically, AdaDoS models the problem as a competitive game between an attacker, whose goal is to obstruct network traffic without being detected, and a detector, which aims to identify malicious traffic. AdaDoS can solve this game by dynamically adjusting its attack strategy based on feedback from the SDN and the detector. Additionally, recognising that attackers typically have less information than defenders, AdaDoS formulates the DoS-like attack as a partially observed Markov decision process (POMDP), with the attacker having access only to delay information between attacker and victim nodes. We address this challenge with a novel reciprocal learning module, where the student agent, with limited observations, enhances its performance by learning from the teacher agent, who has full observational capabilities in the SDN environment. AdaDoS represents the first application of RL to develop DoS-like attack sequences, capable of adaptively evading both machine learning-based and rule-based DoS-like attack detectors.
- Abstract(参考訳): 既存の防御機構は、事前定義されたシグネチャと静的ヒューリスティックを活用して悪意のあるトラフィックを特定し、ブロックするルールベースのDoS攻撃を軽減した。
しかし、AI駆動技術の出現はSDNセキュリティに新たな課題をもたらし、既存の防御メカニズムの有効性を損なう可能性がある。
本稿では,既存のDoS検出器による対角強化学習(RL)による検出を回避しつつ,ネットワーク操作を妨害する適応攻撃モデルであるAdaDoSを紹介する。
具体的には、AdaDoSは、ネットワークトラフィックを検出せずに妨害することを目的とした攻撃者と、悪意のあるトラフィックを識別することを目的とした検出器との間の競争ゲームとして問題をモデル化する。
AdaDoSはSDNと検出器からのフィードバックに基づいて攻撃戦略を動的に調整することでこの問題を解決することができる。
さらに、攻撃者がディフェンダーよりも情報が少ないことを認めたAdaDoSは、DoSライクな攻撃を部分的に観察されたマルコフ決定プロセス(POMDP)として定式化し、攻撃者は攻撃者と被害者ノードの間の情報を遅延するのみにアクセスできる。
この課題を,SDN環境における観察能力の充実を図った教師エージェントの学習により,学生エージェントが限られた観察力でその性能を向上させる,新たな相互学習モジュールを用いて解決する。
AdaDoSは、機械学習ベースとルールベースの両方のDoSライクな攻撃検出を適応的に回避できるDoSライクな攻撃シーケンスを開発するためのRLの最初の応用である。
関連論文リスト
- On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - A near-autonomous and incremental intrusion detection system through active learning of known and unknown attacks [2.686686221415684]
侵入検知は、セキュリティ専門家の伝統的な慣行であるが、まだ対処すべき問題がいくつかある。
本稿では、未知の攻撃と未知の攻撃の両方を適応的かつ漸進的に検出するハイブリッド侵入検知システム(IDS)のアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-10-26T14:37:54Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - An Overview of Backdoor Attacks Against Deep Neural Networks and
Possible Defences [33.415612094924654]
本研究の目的は,これまでに提案された攻撃・防衛の多種多様さを概観することである。
バックドア攻撃では、攻撃者はトレーニングデータを破損し、テスト時に誤動作を誘発する。
テストタイムエラーは、適切に作成された入力サンプルに対応するトリガーイベントの存在下でのみ起動される。
論文 参考訳(メタデータ) (2021-11-16T13:06:31Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - TANTRA: Timing-Based Adversarial Network Traffic Reshaping Attack [46.79557381882643]
本稿では,TANTRA(Adversarial Network Traffic Reshaping Attack)を提案する。
我々の回避攻撃は、ターゲットネットワークの良性パケット間の時間差を学習するために訓練された長い短期記憶(LSTM)ディープニューラルネットワーク(DNN)を利用する。
TANTRAは、ネットワーク侵入検出システム回避の平均成功率99.99%を達成します。
論文 参考訳(メタデータ) (2021-03-10T19:03:38Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。