論文の概要: Optimized Deep Learning Models for Malware Detection under Concept Drift
- arxiv url: http://arxiv.org/abs/2308.10821v2
- Date: Thu, 1 Aug 2024 13:53:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-02 14:55:39.180920
- Title: Optimized Deep Learning Models for Malware Detection under Concept Drift
- Title(参考訳): 概念ドリフト下でのマルウェア検出のための最適化深層学習モデル
- Authors: William Maillet, Benjamin Marais,
- Abstract要約: ドリフトに対するベースラインニューラルネットワークを改善するためのモデルに依存しないプロトコルを提案する。
本稿では,最新の検証セットによる特徴量削減とトレーニングの重要性を示し,Drift-Resilient Binary Cross-Entropyという損失関数を提案する。
改良されたモデルは有望な結果を示し、ベースラインモデルよりも15.2%多いマルウェアを検出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the promising results of machine learning models in malicious files detection, they face the problem of concept drift due to their constant evolution. This leads to declining performance over time, as the data distribution of the new files differs from the training one, requiring frequent model update. In this work, we propose a model-agnostic protocol to improve a baseline neural network against drift. We show the importance of feature reduction and training with the most recent validation set possible, and propose a loss function named Drift-Resilient Binary Cross-Entropy, an improvement to the classical Binary Cross-Entropy more effective against drift. We train our model on the EMBER dataset, published in2018, and evaluate it on a dataset of recent malicious files, collected between 2020 and 2023. Our improved model shows promising results, detecting 15.2% more malware than a baseline model.
- Abstract(参考訳): 悪意のあるファイル検出における機械学習モデルの有望な結果にもかかわらず、彼らはその絶え間ない進化のためにコンセプトドリフトの問題に直面している。
これにより、新しいファイルのデータ配布がトレーニングと異なるため、時間とともにパフォーマンスが低下し、頻繁なモデル更新が必要になる。
本研究では,ドリフトに対するベースラインニューラルネットワークを改善するためのモデルに依存しないプロトコルを提案する。
提案手法は,従来の2次クロスエントロピーを改良したDrift-Resilient Binary Cross-Entropyという損失関数を提案する。
我々は、2018年に公開されたEMBERデータセットでモデルをトレーニングし、2020年から2023年の間に収集された最近の悪意のあるファイルのデータセットで評価する。
改良されたモデルは有望な結果を示し、ベースラインモデルよりも15.2%多いマルウェアを検出する。
関連論文リスト
- Improving Malware Detection with Adversarial Domain Adaptation and Control Flow Graphs [10.352741619176383]
戦闘コンセプトの既存のソリューションは、アクティブラーニングを使用する。
グラフニューラルネットワークを利用してマルウェア制御後のフローグラフの保持情報を学習する手法を提案する。
提案手法は,バイナリ分類タスクにおける未知のマルウェアファミリーの予測と,マルチクラス環境でのドリフトされたマルウェアファミリーの予測において,大幅な向上を示すものである。
論文 参考訳(メタデータ) (2024-07-18T22:06:20Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Towards a robust and reliable deep learning approach for detection of
compact binary mergers in gravitational wave data [0.0]
我々は、段階的に深層学習モデルを開発し、その堅牢性と信頼性の向上に取り組みます。
我々はGAN(Generative Adversarial Network)を含む新しいフレームワークでモデルを再訓練する。
絶対ロバスト性は事実上達成できないが、そのような訓練によって得られるいくつかの根本的な改善を実証する。
論文 参考訳(メタデータ) (2023-06-20T18:00:05Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Autoregressive based Drift Detection Method [0.0]
我々はADDMと呼ばれる自己回帰モデルに基づく新しい概念ドリフト検出手法を提案する。
以上の結果から,新しいドリフト検出法は最先端ドリフト検出法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-09T14:36:16Z) - Collision Detection: An Improved Deep Learning Approach Using SENet and
ResNext [6.736699393205048]
本稿では,SENetブロックを用いたResNextアーキテクチャを用いたディープラーニングモデルを提案する。
提案モデルでは, GTACrash 合成データの有意に少ない比率で, ROC-AUC 0.91 を達成する既存のベースラインモデルよりも優れていた。
論文 参考訳(メタデータ) (2022-01-13T02:10:14Z) - Back2Future: Leveraging Backfill Dynamics for Improving Real-time
Predictions in Future [73.03458424369657]
公衆衛生におけるリアルタイム予測では、データ収集は簡単で要求の多いタスクである。
過去の文献では「バックフィル」現象とそのモデル性能への影響についてはほとんど研究されていない。
我々は、与えられたモデルの予測をリアルタイムで洗練することを目的とした、新しい問題とニューラルネットワークフレームワークBack2Futureを定式化する。
論文 参考訳(メタデータ) (2021-06-08T14:48:20Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Dynamic Model Pruning with Feedback [64.019079257231]
余分なオーバーヘッドを伴わずにスパーストレーニングモデルを生成する新しいモデル圧縮法を提案する。
CIFAR-10 と ImageNet を用いて本手法の評価を行い,得られたスパースモデルが高密度モデルの最先端性能に到達可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T15:07:08Z) - An Efficient Method of Training Small Models for Regression Problems
with Knowledge Distillation [1.433758865948252]
回帰問題に対する知識蒸留の新しい定式化を提案する。
まず,教師モデル予測を用いて,教師モデルを用いた学習サンプルの退学率を下げる新たな損失関数,教師の退学率の減少を提案する。
マルチタスクネットワークを考えることで、学生モデルの特徴抽出の訓練がより効果的になる。
論文 参考訳(メタデータ) (2020-02-28T08:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。