論文の概要: Neural Networks Optimizations Against Concept and Data Drift in Malware
Detection
- arxiv url: http://arxiv.org/abs/2308.10821v1
- Date: Mon, 21 Aug 2023 16:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 12:39:01.870881
- Title: Neural Networks Optimizations Against Concept and Data Drift in Malware
Detection
- Title(参考訳): マルウェア検出における概念とデータドリフトに対するニューラルネットワークの最適化
- Authors: William Maillet and Benjamin Marais
- Abstract要約: ドリフト問題に対処するベースラインニューラルネットワークを改善するためのモデルに依存しないプロトコルを提案する。
本稿では,最新の検証セットによる特徴量削減とトレーニングの重要性を示し,Drift-Resilient Binary Cross-Entropyという損失関数を提案する。
改良されたモデルは有望な結果を示し、ベースラインモデルよりも15.2%多いマルウェアを検出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the promising results of machine learning models in malware
detection, they face the problem of concept drift due to malware constant
evolution. This leads to a decline in performance over time, as the data
distribution of the new files differs from the training one, requiring regular
model update. In this work, we propose a model-agnostic protocol to improve a
baseline neural network to handle with the drift problem. We show the
importance of feature reduction and training with the most recent validation
set possible, and propose a loss function named Drift-Resilient Binary
Cross-Entropy, an improvement to the classical Binary Cross-Entropy more
effective against drift. We train our model on the EMBER dataset (2018) and
evaluate it on a dataset of recent malicious files, collected between 2020 and
2023. Our improved model shows promising results, detecting 15.2% more malware
than a baseline model.
- Abstract(参考訳): マルウェア検出における機械学習モデルの有望な結果にもかかわらず、マルウェアの絶え間ない進化のためにコンセプトドリフトの問題に直面している。
これにより、新しいファイルのデータ分散がトレーニングファイルと異なり、定期的なモデル更新が必要になるため、時間とともにパフォーマンスが低下する。
本研究では,ドリフト問題に対処するベースラインニューラルネットワークを改善するためのモデル非依存プロトコルを提案する。
本稿では,最新の検証セットによる特徴量削減と訓練の重要性を示し,ドリフト耐性バイナリクロスエントロピーと呼ばれる損失関数を提案し,ドリフトに対してより効果的な古典的バイナリクロスエントロピーの改善を提案する。
我々は、EMBERデータセット(2018)でモデルをトレーニングし、2020年から2023年の間に収集された最近の悪意のあるファイルのデータセットで評価する。
改良されたモデルは有望な結果を示し、ベースラインモデルよりも15.2%多いマルウェアを検出する。
関連論文リスト
- Revisiting Concept Drift in Windows Malware Detection: Adaptation to Real Drifted Malware with Minimal Samples [10.352741619176383]
本研究では,ドリフトマルウェアの検出と分類を行う新しい手法を提案する。
グラフニューラルネットワークと対向ドメイン適応を利用して、マルウェア制御フローグラフのドリフト不変性を学習する。
当社のアプローチは,公開ベンチマークや,セキュリティ企業によって毎日報告されている実世界のマルウェアデータベース上でのドリフトマルウェアの検出を大幅に改善する。
論文 参考訳(メタデータ) (2024-07-18T22:06:20Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Towards a robust and reliable deep learning approach for detection of
compact binary mergers in gravitational wave data [0.0]
我々は、段階的に深層学習モデルを開発し、その堅牢性と信頼性の向上に取り組みます。
我々はGAN(Generative Adversarial Network)を含む新しいフレームワークでモデルを再訓練する。
絶対ロバスト性は事実上達成できないが、そのような訓練によって得られるいくつかの根本的な改善を実証する。
論文 参考訳(メタデータ) (2023-06-20T18:00:05Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Autoregressive based Drift Detection Method [0.0]
我々はADDMと呼ばれる自己回帰モデルに基づく新しい概念ドリフト検出手法を提案する。
以上の結果から,新しいドリフト検出法は最先端ドリフト検出法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-09T14:36:16Z) - Collision Detection: An Improved Deep Learning Approach Using SENet and
ResNext [6.736699393205048]
本稿では,SENetブロックを用いたResNextアーキテクチャを用いたディープラーニングモデルを提案する。
提案モデルでは, GTACrash 合成データの有意に少ない比率で, ROC-AUC 0.91 を達成する既存のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2022-01-13T02:10:14Z) - Back2Future: Leveraging Backfill Dynamics for Improving Real-time
Predictions in Future [73.03458424369657]
公衆衛生におけるリアルタイム予測では、データ収集は簡単で要求の多いタスクである。
過去の文献では「バックフィル」現象とそのモデル性能への影響についてはほとんど研究されていない。
我々は、与えられたモデルの予測をリアルタイムで洗練することを目的とした、新しい問題とニューラルネットワークフレームワークBack2Futureを定式化する。
論文 参考訳(メタデータ) (2021-06-08T14:48:20Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Dynamic Model Pruning with Feedback [64.019079257231]
余分なオーバーヘッドを伴わずにスパーストレーニングモデルを生成する新しいモデル圧縮法を提案する。
CIFAR-10 と ImageNet を用いて本手法の評価を行い,得られたスパースモデルが高密度モデルの最先端性能に到達可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T15:07:08Z) - An Efficient Method of Training Small Models for Regression Problems
with Knowledge Distillation [1.433758865948252]
回帰問題に対する知識蒸留の新しい定式化を提案する。
まず,教師モデル予測を用いて,教師モデルを用いた学習サンプルの退学率を下げる新たな損失関数,教師の退学率の減少を提案する。
マルチタスクネットワークを考えることで、学生モデルの特徴抽出の訓練がより効果的になる。
論文 参考訳(メタデータ) (2020-02-28T08:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。