論文の概要: Radial Spike and Slab Bayesian Neural Networks for Sparse Data in
Ransomware Attacks
- arxiv url: http://arxiv.org/abs/2205.14759v1
- Date: Sun, 29 May 2022 20:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 18:50:38.167200
- Title: Radial Spike and Slab Bayesian Neural Networks for Sparse Data in
Ransomware Attacks
- Title(参考訳): ランサムウェア攻撃におけるスパースデータのための放射スパイクとスラブベイズニューラルネットワーク
- Authors: Jurijs Nazarovs, Jack W. Stokes, Melissa Turcotte, Justin Carroll,
Itai Grady
- Abstract要約: 近似した後続分布の新しい形式を含む新しいタイプのベイズニューラルネットワークを提案する。
ランサムウェア攻撃の実際のデータセット上でのモデルの性能を実証し、多数のベースラインに対して改善を示す。
さらに,MITRE ATT&CK戦術,技術,手順 (TTP) として低レベル事象を表現することを提案する。
- 参考スコア(独自算出の注目度): 7.599718568619666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ransomware attacks are increasing at an alarming rate, leading to large
financial losses, unrecoverable encrypted data, data leakage, and privacy
concerns. The prompt detection of ransomware attacks is required to minimize
further damage, particularly during the encryption stage. However, the
frequency and structure of the observed ransomware attack data makes this task
difficult to accomplish in practice. The data corresponding to ransomware
attacks represents temporal, high-dimensional sparse signals, with limited
records and very imbalanced classes. While traditional deep learning models
have been able to achieve state-of-the-art results in a wide variety of
domains, Bayesian Neural Networks, which are a class of probabilistic models,
are better suited to the issues of the ransomware data. These models combine
ideas from Bayesian statistics with the rich expressive power of neural
networks. In this paper, we propose the Radial Spike and Slab Bayesian Neural
Network, which is a new type of Bayesian Neural network that includes a new
form of the approximate posterior distribution. The model scales well to large
architectures and recovers the sparse structure of target functions. We provide
a theoretical justification for using this type of distribution, as well as a
computationally efficient method to perform variational inference. We
demonstrate the performance of our model on a real dataset of ransomware
attacks and show improvement over a large number of baselines, including
state-of-the-art models such as Neural ODEs (ordinary differential equations).
In addition, we propose to represent low-level events as MITRE ATT\&CK tactics,
techniques, and procedures (TTPs) which allows the model to better generalize
to unseen ransomware attacks.
- Abstract(参考訳): ランサムウェア攻撃は目覚ましいペースで増加しており、財務損失、解読不能な暗号化データ、データの漏洩、プライバシーの懸念に繋がる。
ランサムウェア攻撃の迅速な検出は、特に暗号化段階でのさらなる損傷を最小限に抑えるために必要である。
しかし、観測されたランサムウェア攻撃データの頻度と構造は、この作業を実際に行うのを困難にしている。
ランサムウェア攻撃に対応するデータは、限られたレコードと非常に不均衡なクラスを持つ、時間的、高次元のスパース信号を表す。
従来のディープラーニングモデルは、さまざまな領域で最先端の結果を達成することができたが、確率モデルのクラスであるベイジアンニューラルネットワークはランサムウェアデータの問題により適している。
これらのモデルはベイズ統計学の考えとニューラルネットワークの豊かな表現力を組み合わせる。
本稿では,近似後続分布の新たな形を含む新しいタイプのベイズ型ニューラルネットワークであるラジアルスパイクとスラブベイズ型ニューラルネットワークを提案する。
モデルは大規模アーキテクチャによく適合し、ターゲット関数のスパース構造を復元する。
このタイプの分布を用いるための理論的正当化法と、変分推論を行う計算効率の良い方法を提供する。
我々は,ランサムウェア攻撃の実際のデータセット上でのモデルの性能を実証し,ニューラルodes (ordinary differential equation) などの最先端モデルを含む,多数のベースラインの改善を示す。
さらに,低レベルのイベントをMITRE ATT\&CK戦略,テクニック,手順 (TTP) として表現することを提案する。
関連論文リスト
- Ransomware Detection and Classification Using Random Forest: A Case Study with the UGRansome2024 Dataset [0.0]
ネットワークトラフィックにおけるランサムウェア検出のための最適化データセットであるUGRansome2024を紹介する。
このデータセットは直観主義的特徴工学アプローチを用いてUGRansomeデータから導かれる。
本研究では,UGRansome2024データセットとランダムフォレストアルゴリズムを用いてランサムウェア検出を行う。
論文 参考訳(メタデータ) (2024-04-19T12:50:03Z) - Advancing DDoS Attack Detection: A Synergistic Approach Using Deep
Residual Neural Networks and Synthetic Oversampling [2.988269372716689]
本稿では,Deep Residual Neural Networks(ResNets)の機能を活用したDDoS攻撃検出の強化手法を提案する。
我々は、良性および悪意のあるデータポイントの表現のバランスをとり、モデルが攻撃を示す複雑なパターンをよりよく識別できるようにする。
実世界のデータセットを用いた実験結果から,従来の手法よりもはるかに優れた99.98%の精度が得られた。
論文 参考訳(メタデータ) (2024-01-06T03:03:52Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Transpose Attack: Stealing Datasets with Bidirectional Training [4.166238443183223]
敵は正統なモデルの下で保護された学習環境からデータセットを抽出できることを示す。
本稿では,感染モデルを検出するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-13T15:14:50Z) - Zero Day Threat Detection Using Graph and Flow Based Security Telemetry [3.3029515721630855]
Zero Day Threats (ZDT) は、悪意あるアクターが情報技術(IT)ネットワークやインフラを攻撃・利用するための新しい手法である。
本稿では,ゼロデイ脅威検出に対するディープラーニングに基づくアプローチを導入し,リアルタイムに脅威を一般化し,スケールし,効果的に識別する。
論文 参考訳(メタデータ) (2022-05-04T19:30:48Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - DeepSight: Mitigating Backdoor Attacks in Federated Learning Through
Deep Model Inspection [26.593268413299228]
フェデレートラーニング(FL)では、複数のクライアントが、データを公開せずに、プライベートデータ上でニューラルネットワーク(NN)モデルを協調的にトレーニングすることができる。
DeepSightは、バックドア攻撃を緩和するための新しいモデルフィルタリングアプローチである。
モデルの性能に悪影響を及ぼすことなく、最先端のバックドア攻撃を軽減できることを示す。
論文 参考訳(メタデータ) (2022-01-03T17:10:07Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。