論文の概要: Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection
- arxiv url: http://arxiv.org/abs/2008.07125v2
- Date: Mon, 22 Mar 2021 08:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 04:17:41.067603
- Title: Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection
- Title(参考訳): Adversarial EXEmples: Windows マルウェア検出のための機械学習の実践的攻撃に関する調査と実験的評価
- Authors: Luca Demetrio and Scott E. Coull and Battista Biggio and Giovanni
Lagorio and Alessandro Armando and Fabio Roli
- Abstract要約: EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
- 参考スコア(独自算出の注目度): 67.53296659361598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown that adversarial Windows malware samples - referred to
as adversarial EXEmples in this paper - can bypass machine learning-based
detection relying on static code analysis by perturbing relatively few input
bytes. To preserve malicious functionality, previous attacks either add bytes
to existing non-functional areas of the file, potentially limiting their
effectiveness, or require running computationally-demanding validation steps to
discard malware variants that do not correctly execute in sandbox environments.
In this work, we overcome these limitations by developing a unifying framework
that does not only encompass and generalize previous attacks against
machine-learning models, but also includes three novel attacks based on
practical, functionality-preserving manipulations to the Windows Portable
Executable (PE) file format. These attacks, named Full DOS, Extend and Shift,
inject the adversarial payload by respectively manipulating the DOS header,
extending it, and shifting the content of the first section. Our experimental
results show that these attacks outperform existing ones in both white-box and
black-box scenarios, achieving a better trade-off in terms of evasion rate and
size of the injected payload, while also enabling evasion of models that have
been shown to be robust to previous attacks. To facilitate reproducibility of
our findings, we open source our framework and all the corresponding attack
implementations as part of the secml-malware Python library. We conclude this
work by discussing the limitations of current machine learning-based malware
detectors, along with potential mitigation strategies based on embedding domain
knowledge coming from subject-matter experts directly into the learning
process.
- Abstract(参考訳): 近年の研究では,比較的少ない入力バイトを摂動することで,静的コード解析による機械学習による検出を回避できることが示されている。
悪意のある機能を維持するために、以前の攻撃は、ファイルの既存の非機能領域にバイトを追加し、その有効性を制限したり、サンドボックス環境で正しく実行されていないマルウェアを破棄するために、計算的に要求されるバリデーション手順を実行する必要がある。
本研究では,従来の機械学習モデルに対する攻撃を包含・一般化するだけでなく,Windows Portable Executable(PE)ファイルフォーマットへの実用的,機能保存操作に基づく3つの新たな攻撃を含む統一フレームワークを開発することで,これらの制限を克服する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
実験の結果、これらの攻撃はホワイトボックスとブラックボックスの両方のシナリオにおいて既存の攻撃よりも優れており、注入ペイロードの回避率とサイズにおいて良好なトレードオフを実現し、また、以前の攻撃に対して堅牢であることが示されているモデルの回避を可能にした。
この結果の再現性を高めるため,我々は,secml-malware Pythonライブラリの一部として,フレームワークおよび対応するアタック実装をオープンソース化した。
本研究は、現在の機械学習ベースのマルウェア検知器の限界と、学習プロセスに直接サブジェクタの専門家から直接ドメイン知識を埋め込むことに基づく潜在的な緩和戦略を議論することで締めくくっている。
関連論文リスト
- Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - On the Effectiveness of Adversarial Samples against Ensemble
Learning-based Windows PE Malware Detectors [0.0]
本稿では,GANとRLモデルを組み合わせることで,アンサンブル学習に基づく検出器の動作に対処する突然変異システムを提案する。
FeaGANモデルでは、アンサンブル学習を用いて、生成された対向パターンを用いて、マルウェア検出器の回避能力を向上する。
論文 参考訳(メタデータ) (2023-09-25T02:57:27Z) - Towards a Practical Defense against Adversarial Attacks on Deep
Learning-based Malware Detectors via Randomized Smoothing [3.736916304884177]
本稿では,ランダムな平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,入力のランダム化にガウスノイズやラプラスノイズを使う代わりに,ランダム化アブレーションに基づく平滑化方式を提案する。
BODMASデータセットに対する様々な最先端の回避攻撃に対するアブレーションモデルの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2023-08-17T10:30:25Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Mate! Are You Really Aware? An Explainability-Guided Testing Framework
for Robustness of Malware Detectors [49.34155921877441]
マルウェア検出装置のロバスト性を示すための説明可能性誘導型およびモデルに依存しないテストフレームワークを提案する。
次に、このフレームワークを使用して、操作されたマルウェアを検出する最先端のマルウェア検知器の能力をテストする。
我々の発見は、現在のマルウェア検知器の限界と、その改善方法に光を当てた。
論文 参考訳(メタデータ) (2021-11-19T08:02:38Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Binary Black-box Evasion Attacks Against Deep Learning-based Static
Malware Detectors with Adversarial Byte-Level Language Model [11.701290164823142]
MalRNNは、制限なく回避可能なマルウェアバリアントを自動的に生成する新しいアプローチです。
MalRNNは、3つの最近のディープラーニングベースのマルウェア検出器を効果的に回避し、現在のベンチマークメソッドを上回ります。
論文 参考訳(メタデータ) (2020-12-14T22:54:53Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Explanation-Guided Backdoor Poisoning Attacks Against Malware
Classifiers [12.78844634194129]
機械学習ベースのマルウェア分類のためのトレーニングパイプラインは、しばしばクラウドソースの脅威フィードに依存する。
本稿では、攻撃者がサンプルラベリングプロセスを制御できない「クリーンラベル」攻撃に挑戦することに焦点を当てる。
本稿では,効率的なバックドアトリガを作成するために,説明可能な機械学習の手法を用いて,関連する特徴や値の選択を誘導する手法を提案する。
論文 参考訳(メタデータ) (2020-03-02T17:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。