論文の概要: Deep PackGen: A Deep Reinforcement Learning Framework for Adversarial
Network Packet Generation
- arxiv url: http://arxiv.org/abs/2305.11039v1
- Date: Thu, 18 May 2023 15:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 14:27:44.166923
- Title: Deep PackGen: A Deep Reinforcement Learning Framework for Adversarial
Network Packet Generation
- Title(参考訳): Deep PackGen: 敵対的ネットワークパケット生成のための深層強化学習フレームワーク
- Authors: Soumyadeep Hore and Jalal Ghadermazi and Diwas Paudel and Ankit Shah
and Tapas K. Das and Nathaniel D. Bastian
- Abstract要約: 人工知能(AI)と機械学習(ML)アルゴリズムの最近の進歩は、サイバーセキュリティ運用センター(ディフェンダー)のセキュリティ姿勢を高めている。
近年の研究では、フローベースとパケットベースの特徴の摂動がMLモデルを欺くことが報告されているが、これらのアプローチには限界がある。
我々のフレームワークであるDeep PackGenは、逆パケットを生成するために深層強化学習を採用し、文献におけるアプローチの限界を克服することを目的としている。
- 参考スコア(独自算出の注目度): 3.5574619538026044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in artificial intelligence (AI) and machine learning (ML)
algorithms, coupled with the availability of faster computing infrastructure,
have enhanced the security posture of cybersecurity operations centers
(defenders) through the development of ML-aided network intrusion detection
systems (NIDS). Concurrently, the abilities of adversaries to evade security
have also increased with the support of AI/ML models. Therefore, defenders need
to proactively prepare for evasion attacks that exploit the detection
mechanisms of NIDS. Recent studies have found that the perturbation of
flow-based and packet-based features can deceive ML models, but these
approaches have limitations. Perturbations made to the flow-based features are
difficult to reverse-engineer, while samples generated with perturbations to
the packet-based features are not playable.
Our methodological framework, Deep PackGen, employs deep reinforcement
learning to generate adversarial packets and aims to overcome the limitations
of approaches in the literature. By taking raw malicious network packets as
inputs and systematically making perturbations on them, Deep PackGen
camouflages them as benign packets while still maintaining their functionality.
In our experiments, using publicly available data, Deep PackGen achieved an
average adversarial success rate of 66.4\% against various ML models and across
different attack types. Our investigation also revealed that more than 45\% of
the successful adversarial samples were out-of-distribution packets that evaded
the decision boundaries of the classifiers. The knowledge gained from our study
on the adversary's ability to make specific evasive perturbations to different
types of malicious packets can help defenders enhance the robustness of their
NIDS against evolving adversarial attacks.
- Abstract(参考訳): 人工知能(AI)と機械学習(ML)アルゴリズムの進歩は、より高速なコンピューティングインフラストラクチャの可用性と相まって、ML支援ネットワーク侵入検知システム(NIDS)の開発を通じて、サイバーセキュリティ運用センター(ディフェンダー)のセキュリティ姿勢を高めている。
同時に、AI/MLモデルのサポートにより、セキュリティを回避する敵の能力も向上している。
したがって、防衛側は、NIDSの検出機構を利用する回避攻撃を積極的に準備する必要がある。
近年の研究では、フローベースとパケットベースの特徴の摂動はMLモデルを欺くことができるが、これらのアプローチには限界がある。
フローベースの機能に対する摂動はリバースエンジニアリングが難しいが、パケットベースの機能に対する摂動で生成されたサンプルは再生できない。
方法論の枠組みであるDeep PackGenは,逆パケットを生成するために深層強化学習を採用し,文献におけるアプローチの限界を克服することを目的としている。
生の悪質なネットワークパケットを入力として、それらを体系的に乱れにすることで、Deep PackGenはそれらの機能を保ちながらそれらを良質なパケットとして扱います。
我々の実験では、公開データを用いて、Deep PackGenは、さまざまなMLモデルに対して平均で66.4\%の成功率を達成した。
また, 検証の結果, 正反対サンプルの45%以上は, 識別器の判定境界を回避した分布外パケットであることがわかった。
本研究は,異なる種類の悪意パケットに対して特定の回避的摂動を行う敵の能力に関する知見から得られた知見であり,敵攻撃の進行に対して,敵がNIDSの堅牢性を高めるのに役立つ。
関連論文リスト
- Revolutionizing Payload Inspection: A Self-Supervised Journey to Precision with Few Shots [0.0]
従来のセキュリティ対策は、現代のサイバー攻撃の高度化に対して不十分である。
Deep Packet Inspection (DPI)は、ネットワークセキュリティの強化において重要な役割を担っている。
先進的なディープラーニング技術とDPIの統合は、マルウェア検出に現代的な手法を導入している。
論文 参考訳(メタデータ) (2024-09-26T18:55:52Z) - Cyber Knowledge Completion Using Large Language Models [1.4883782513177093]
IoT(Internet of Things)をCPS(Cyber-Physical Systems)に統合することで,サイバー攻撃面が拡大した。
CPSのリスクを評価することは、不完全で時代遅れのサイバーセキュリティ知識のため、ますます困難になっている。
近年のLarge Language Models (LLMs) の進歩は、サイバー攻撃による知識の完成を促進するユニークな機会となる。
論文 参考訳(メタデータ) (2024-09-24T15:20:39Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - A Robust Adversary Detection-Deactivation Method for Metaverse-oriented
Collaborative Deep Learning [13.131323206843733]
本稿では,潜在的な悪意のある参加者のアクセスを制限し,隔離する逆検出・不活性化手法を提案する。
また,Multiview CDLのケースで詳細な保護分析を行い,その手法を用いて,有害アクセスを効果的に防止できることを示した。
論文 参考訳(メタデータ) (2023-10-21T06:45:18Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Unveiling Vulnerabilities in Interpretable Deep Learning Systems with
Query-Efficient Black-box Attacks [16.13790238416691]
解釈可能なディープラーニングシステム(IDLS)は、システムの透明性と説明性を高めるために設計されている。
本稿では,ターゲットモデルとその解釈モデルに関する事前知識を必要としない新規な微生物遺伝アルゴリズムによるIDLSに対するブラックボックス攻撃を提案する。
論文 参考訳(メタデータ) (2023-07-21T21:09:54Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。