論文の概要: Updating Windows Malware Detectors: Balancing Robustness and Regression against Adversarial EXEmples
- arxiv url: http://arxiv.org/abs/2405.02646v1
- Date: Sat, 4 May 2024 12:12:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-05-07 19:01:15.165205
- Title: Updating Windows Malware Detectors: Balancing Robustness and Regression against Adversarial EXEmples
- Title(参考訳): Windowsのマルウェア検知器の更新:敵のexEmplesに対するロバストさと回帰のバランス
- Authors: Matous Kozak, Luca Demetrio, Dmitrijs Trizna, Fabio Roli,
- Abstract要約: Windows マルウェア検出装置の更新における精度と回帰のトレードオフについて検討する。
既存の検出器にチェーンしてEXEmplesを迅速に停止するプラグインであるEXE-Scannerを提案する。
また,EXE-Scannerは精度の低下なしに頑健なモデルに匹敵する性能を示した。
- 参考スコア(独自算出の注目度): 8.911277142080934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial EXEmples are carefully-perturbed programs tailored to evade machine learning Windows malware detectors, with an on-going effort in developing robust models able to address detection effectiveness. However, even if robust models can prevent the majority of EXEmples, to maintain predictive power over time, models are fine-tuned to newer threats, leading either to partial updates or time-consuming retraining from scratch. Thus, even if the robustness against attacks is higher, the new models might suffer a regression in performance by misclassifying threats that were previously correctly detected. For these reasons, we study the trade-off between accuracy and regression when updating Windows malware detectors, by proposing EXE-scanner, a plugin that can be chained to existing detectors to promptly stop EXEmples without causing regression. We empirically show that previously-proposed hardening techniques suffer a regression of accuracy when updating non-robust models. On the contrary, we show that EXE-scanner exhibits comparable performance to robust models without regression of accuracy, and we show how to properly chain it after the base classifier to obtain the best performance without the need of costly retraining. To foster reproducibility, we openly release source code, along with the dataset of adversarial EXEmples based on state-of-the-art perturbation algorithms.
- Abstract(参考訳): Adversarial EXEmplesは、機械学習のWindowsマルウェア検出を回避すべく、慎重に調整されたプログラムで、検出効率に対処可能な堅牢なモデルの開発に取り組んでいる。
しかしながら、堅牢なモデルがEXEmplの大多数を予防し、時間とともに予測能力を維持することができても、モデルはより新しい脅威に微調整され、部分的な更新やスクラッチからの時間的再トレーニングに繋がる。
したがって、たとえ攻撃に対する堅牢性が高くても、新しいモデルは、以前正しく検出された脅威を誤分類することで、性能の低下を被る可能性がある。
これらの理由から,Windows のマルウェア検知器を更新する際の精度とレグレッションのトレードオフについて検討し,既存の検出器にチェーン可能なプラグイン EXE-Scanner を提案する。
従来提案されていた硬化技術が,非破壊モデル更新時の精度の低下に悩まされていることを実証的に示す。
一方,EXE-Scannerは精度の低下のない頑健なモデルに匹敵する性能を示し,ベース分類器の後に適切にチェーンして,コストのかかる再学習を必要とせずに最高の性能を得る方法を示す。
再現性を高めるために、我々は、最先端の摂動アルゴリズムに基づく逆EXEmplesのデータセットとともに、ソースコードをオープンにリリースする。
関連論文リスト
- DISTIL: Data-Free Inversion of Suspicious Trojan Inputs via Latent Diffusion [0.7351161122478707]
ディープニューラルネットワークはトロイの木馬(バックドア)攻撃に弱い。
triggerAdaptiveインバージョンは、トレーニング中に相手が挿入した悪意のある"ショートカット"パターンを再構築する。
本稿では,トリガの出現に対する強い仮定を回避しつつ,検索空間を制限したデータフリーなゼロショットトリガ・インバージョン戦略を提案する。
論文 参考訳(メタデータ) (2025-07-30T16:31:13Z) - Regression-aware Continual Learning for Android Malware Detection [9.695692033183485]
マルウェアは急速に進化し、機械学習(ML)ベースの検出器を継続的に適応させる。
継続的学習(CL)はスケーラブルな代替手段として登場し、完全なデータアクセスなしにインクリメンタルな更新を可能にする。
しかし、セキュリティレグレッションは、一度正しく検出されたが、モデル更新後の検出を回避したマルウェアサンプルのような、サンプルレベルでの有害な予測変更をキャプチャする。
CLをベースとしたマルウェア検知器のセキュリティレグレッションを形式化し,定量化し,その軽減を目的としたレグレッション・アウェア・ペナルティを提案する。
論文 参考訳(メタデータ) (2025-07-24T11:31:23Z) - ORCHID: Streaming Threat Detection over Versioned Provenance Graphs [11.783370157959968]
本稿では,リアルタイムイベントストリーム上でプロセスレベルの脅威を詳細に検出する新しいProv-IDSであるORCHIDを提案する。
ORCHIDは、バージョン付き前処理グラフのユニークな不変特性を利用して、グラフ全体を逐次RNNモデルに反復的に埋め込む。
我々は、DARPA TCを含む4つの公開データセット上でORCHIDを評価し、ORCHIDが競合する分類性能を提供できることを示す。
論文 参考訳(メタデータ) (2024-08-23T19:44:40Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Beyond the Norms: Detecting Prediction Errors in Regression Models [26.178065248948773]
本稿では,回帰アルゴリズムにおける信頼できない振る舞いを検出するという課題に取り組む。
回帰器の出力が特定の不一致(または誤り)を超えた場合、回帰における不確実性の概念を導入する。
複数の回帰タスクに対する誤り検出の実証的改善を示す。
論文 参考訳(メタデータ) (2024-06-11T05:51:44Z) - A New Formulation for Zeroth-Order Optimization of Adversarial EXEmples in Malware Detection [14.786557372850094]
ゼロオーダー最適化フレームワークでマルウェア検出を学習する方法を示す。
我々は、Windows マルウェア検出に対するゼロオーダー攻撃である ZEXE を提案し、研究する。
論文 参考訳(メタデータ) (2024-05-23T13:01:36Z) - Robustness-Congruent Adversarial Training for Secure Machine Learning
Model Updates [13.911586916369108]
機械学習モデルにおける誤分類は、敵の例に対して堅牢性に影響を及ぼす可能性があることを示す。
この問題に対処するために,ロバストネス・コングロレント・逆行訓練という手法を提案する。
我々のアルゴリズムと、より一般的には、非回帰的制約で学習することは、一貫した推定器を訓練するための理論的に基底的なフレームワークを提供することを示す。
論文 参考訳(メタデータ) (2024-02-27T10:37:13Z) - MalPurifier: Enhancing Android Malware Detection with Adversarial
Purification against Evasion Attacks [19.68134775248897]
MalPurifierは敵の浄化を利用して、独立して摂動を除去し、軽く柔軟な方法で攻撃を緩和する。
2つのAndroidマルウェアデータセットの実験結果は、MalPurifierが最先端の防御よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-12-11T14:48:43Z) - Towards a Practical Defense against Adversarial Attacks on Deep
Learning-based Malware Detectors via Randomized Smoothing [3.736916304884177]
本稿では,ランダムな平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,入力のランダム化にガウスノイズやラプラスノイズを使う代わりに,ランダム化アブレーションに基づく平滑化方式を提案する。
BODMASデータセットに対する様々な最先端の回避攻撃に対するアブレーションモデルの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2023-08-17T10:30:25Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - CausalAgents: A Robustness Benchmark for Motion Forecasting using Causal
Relationships [8.679073301435265]
既存のデータに摂動を適用することにより、モデルロバスト性の評価と改善のための新しいベンチマークを構築する。
我々はこれらのラベルを使用して、現場から非因果的エージェントを削除することでデータを摂動する。
非因果摂動下では, minADE の相対的な変化は, 原型と比較して25$-$38%である。
論文 参考訳(メタデータ) (2022-07-07T21:28:23Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z) - RAB: Provable Robustness Against Backdoor Attacks [20.702977915926787]
我々は、一般的な脅威モデル、特にバックドアアタックに対して、機械学習モデルの堅牢性を証明することに重点を置いている。
トレーニングモデルをスムースにし,バックドア攻撃に対する堅牢性を証明するための,最初の堅牢なトレーニングプロセスであるRABを提案する。
我々は、さまざまな機械学習(ML)モデルに対する包括的な実験を行い、バックドア攻撃に対する信頼性の高い堅牢性を示す最初のベンチマークを提供する。
論文 参考訳(メタデータ) (2020-03-19T17:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。