論文の概要: Disentangled Dynamic Intrusion Detection
- arxiv url: http://arxiv.org/abs/2307.11079v2
- Date: Sat, 14 Dec 2024 09:12:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:52:58.751836
- Title: Disentangled Dynamic Intrusion Detection
- Title(参考訳): 遠絡型動的侵入検知
- Authors: Chenyang Qiu, Guoshun Nan, Hongrui Xia, Zheng Weng, Xueting Wang, Meng Shen, Xiaofeng Tao, Jun Liu,
- Abstract要約: 本研究では,様々な侵入検出シナリオを扱うために,侵入検出手法であるDIDS-MFLを提案する。
DIDS-MFLは、Double Disentanglement based Intrusion Detection System (DIDS) とMFL (Multiscale Few-shot Learning-based Intrusion Detection Module) の2つの重要なコンポーネントを含んでいる。
- 参考スコア(独自算出の注目度): 17.155894470599762
- License:
- Abstract: Network-based intrusion detection system (NIDS) monitors network traffic for malicious activities, forming the frontline defense against increasing attacks over information infrastructures. Although promising, our quantitative analysis shows that existing methods perform inconsistently in declaring various attacks, and perform poorly in few-shot intrusion detections. We reveal that the underlying cause is entangled distributions of flow features. This motivates us to propose DIDS-MFL, a disentangled intrusion detection method to handle various intrusion detection scenarios. DIDS-MFL involves two key components, respectively: a double Disentanglementbased Intrusion Detection System (DIDS) and a plug-and-play Multi-scale Few-shot Learning-based (MFL) intrusion detection module. Specifically, the proposed DIDS first disentangles traffic features by a non-parameterized optimization, automatically differentiating tens and hundreds of complex features of various attacks. Such differentiated features will be further disentangled to highlight the attack-specific features. Our DIDS additionally uses a novel graph diffusion method that dynamically fuses the network topology in evolving data streams. Furthermore, the proposed MFL involves an alternating optimization framework to address the entangled representations in few-shot traffic threats with rigorous derivation. MFL first captures multiscale information in latent space to distinguish attack-specific information and then optimizes the disentanglement term to highlight the attack-specific information. Finally, MFL fuses and alternately solves them in an end-to-end way. Experiments show the superiority of our proposed DIDS-MFL. Our code is available at https://github.com/qcydm/DIDS-MFL
- Abstract(参考訳): ネットワークベースの侵入検知システム(NIDS)は、悪意ある活動のためのネットワークトラフィックを監視し、情報基盤に対する攻撃の増加に対する最前線の防御を形成する。
有望ではあるが,既存の手法は様々な攻撃を宣言する上で矛盾なく動作し,数発の侵入検出では不十分であることを示す。
フロー特徴の絡み合った分布が根本原因であることを明らかにする。
そこで本研究では,様々な侵入検出シナリオを扱うための侵入検出手法であるDIDS-MFLを提案する。
DIDS-MFLには2つの重要なコンポーネントがあり、それぞれDDIDS(Double Disentanglement Based Intrusion Detection System)とMFL(Multiscale Few-shot Learning-based Intrusion Detection Module)がある。
特に、提案したDIDSは、トラフィック特徴を非パラメータ化最適化によって切り離し、様々な攻撃の数十と数百の複雑な特徴を自動的に識別する。
このような区別された機能は、アタック固有の機能を強調するためにさらに切り離される。
我々のDIDSは、進化するデータストリームのネットワークトポロジを動的に融合する新しいグラフ拡散法も使用しています。
さらに、提案手法は、厳密な導出を伴う数発のトラフィック脅威において、絡み合った表現に対処するための交互最適化フレームワークを含む。
MFLはまず、遅延空間内のマルチスケール情報をキャプチャして、攻撃固有の情報を識別し、次に、攻撃固有の情報をハイライトするために、アンタングルメント項を最適化する。
最後に、MFLは融合し、それらをエンドツーエンドで交互に解決する。
提案したDIDS-MFLの優位性を示す実験を行った。
私たちのコードはhttps://github.com/qcydm/DIDS-MFLで利用可能です。
関連論文リスト
- Multi-stage Attack Detection and Prediction Using Graph Neural Networks: An IoT Feasibility Study [2.5325901958283126]
本稿では,ロッキード・マーティン・サイバー・キル・チェーンの簡易版に触発された3段階の侵入検知システムを提案する。
提案手法は3つのモデルから構成され、それぞれが共通の特徴を持つ攻撃群を検出する。
ToN IoTデータセットを使用して、さまざまなステージで平均94%のF1スコアを達成し、ベンチマークアプローチを上回りました。
論文 参考訳(メタデータ) (2024-04-28T22:11:24Z) - An incremental hybrid adaptive network-based IDS in Software Defined Networks to detect stealth attacks [0.0]
先進的永続脅威(Advanced Persistent Threats、APT)は、検出を回避するための幅広い戦略を実装する攻撃の一種である。
侵入検知システム(IDS)における機械学習(ML)技術は、そのような攻撃を検出するために広く用いられているが、データ分散が変化すると課題がある。
SDNにおける概念ドリフト問題に対処するために、インクリメンタルなハイブリッド適応型ネットワーク侵入検知システム(NIDS)を提案する。
論文 参考訳(メタデータ) (2024-04-01T13:33:40Z) - Unified Physical-Digital Face Attack Detection [66.14645299430157]
顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T09:38:44Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Efficient Network Representation for GNN-based Intrusion Detection [2.321323878201932]
過去数十年間、深刻な経済とプライバシーの被害を受けたサイバー攻撃の数が増加している。
本稿では,侵入検知タスクのトポロジ情報の提供を目的とした,フローのグラフとしての新しいネットワーク表現を提案する。
提案するグラフ構造を利用したグラフニューラルネットワーク(GNN)に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-11T16:10:12Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - NetSentry: A Deep Learning Approach to Detecting Incipient Large-scale
Network Attacks [9.194664029847019]
ネットワーク侵入検出(NID)における機械学習の原理的利用法を示す。
我々は、Bi-ALSTMをベースとした、おそらく最初のNIDSであるNetSentryを提案する。
XSSやWeb bruteforceなどの攻撃検出率を最大3倍に向上させるとともに、最先端技術よりもF1スコアが33%以上上昇することが実証された。
論文 参考訳(メタデータ) (2022-02-20T17:41:02Z) - PointBA: Towards Backdoor Attacks in 3D Point Cloud [31.210502946247498]
3dのバックドア攻撃を,3dデータとネットワークのユニークな特性を利用する統一フレームワークで提示する。
3D深層モデルの堅牢性向上のベースラインとして、3Dポイントクラウドにおけるバックドアアタックの提案が期待されます。
論文 参考訳(メタデータ) (2021-03-30T04:49:25Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。