論文の概要: ByteShield: Adversarially Robust End-to-End Malware Detection through Byte Masking
- arxiv url: http://arxiv.org/abs/2512.09883v1
- Date: Wed, 10 Dec 2025 18:13:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.628125
- Title: ByteShield: Adversarially Robust End-to-End Malware Detection through Byte Masking
- Title(参考訳): ByteShield:バイトマスキングによるエンド・ツー・エンドのマルウェア検出
- Authors: Daniel Gibert, Felip Manyà,
- Abstract要約: エンド・ツー・エンドのマルウェア検出装置は敵の攻撃に弱いことが研究で証明されている。
本稿では,エンド・ツー・エンドのマルウェア検出装置をバイト単位のマスキングにより強化する新しい防御機構を提案する。
- 参考スコア(独自算出の注目度): 3.9604662604261858
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Research has proven that end-to-end malware detectors are vulnerable to adversarial attacks. In response, the research community has proposed defenses based on randomized and (de)randomized smoothing. However, these techniques remain susceptible to attacks that insert large adversarial payloads. To address these limitations, we propose a novel defense mechanism designed to harden end-to-end malware detectors by leveraging masking at the byte level. This mechanism operates by generating multiple masked versions of the input file, independently classifying each version, and then applying a threshold-based voting mechanism to produce the final classification. Key to this defense is a deterministic masking strategy that systematically strides a mask across the entire input file. Unlike randomized smoothing defenses, which randomly mask or delete bytes, this structured approach ensures coverage of the file over successive versions. In the best-case scenario, this strategy fully occludes the adversarial payload, effectively neutralizing its influence on the model's decision. In the worst-case scenario, it partially occludes the adversarial payload, reducing its impact on the model's predictions. By occluding the adversarial payload in one or more masked versions, this defense ensures that some input versions remain representative of the file's original intent, allowing the voting mechanism to suppress the influence of the adversarial payload. Results achieved on the EMBER and BODMAS datasets demonstrate the suitability of our defense, outperforming randomized and (de)randomized smoothing defenses against adversarial examples generated with a wide range of functionality-preserving manipulations while maintaining high accuracy on clean examples.
- Abstract(参考訳): エンド・ツー・エンドのマルウェア検出装置は敵の攻撃に弱いことが研究で証明されている。
これに対し、研究コミュニティはランダム化および(非)ランダム化平滑化に基づく防衛を提案している。
しかし、これらの技術は大きな敵のペイロードを挿入する攻撃の影響を受けやすいままである。
これらの制約に対処するために,バイトレベルでのマスキングを活用することにより,エンド・ツー・エンドのマルウェア検出装置を強化するための新しい防御機構を提案する。
このメカニズムは、入力ファイルの複数のマスク付きバージョンを生成し、各バージョンを独立に分類し、しきい値に基づく投票機構を適用して最終分類を生成する。
この防御の鍵は、入力ファイル全体にわたってマスクを体系的に強要する決定論的マスキング戦略である。
ランダム化されたスムースなディフェンスとは違い、ランダムにバイトをマスクしたり削除したりするのとは異なり、この構造化されたアプローチにより、連続したバージョンに対するファイルのカバレッジが保証される。
ベストケースのシナリオでは、この戦略は敵のペイロードを完全に排除し、モデルの決定に対するその影響を効果的に中和する。
最悪のシナリオでは、部分的には逆ペイロードを遮蔽し、モデルの予測への影響を減少させる。
敵のペイロードを1つ以上のマスク付きのバージョンに隠蔽することで、この防御は、いくつかの入力バージョンが元の意図を表現し続けることを保証し、投票機構が敵のペイロードの影響を抑えることができる。
EMBERおよびBODMASデータセットで得られた結果は, クリーンな事例において高い精度を維持しつつ, 幅広い機能保存操作によって生成された敵例に対して, ランダム化および(デ)ランダム化されたスムーズな防御を達成し, 我々の防衛の適合性を実証するものである。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Certified Adversarial Robustness of Machine Learning-based Malware Detectors via (De)Randomized Smoothing [9.881799766856476]
我々は,特定の実行可能および逆パッチサイズに対して,敵EXEmpleが存在しないことを保証する,パッチ攻撃に対する認証可能な防御を導入する。
提案手法は, 決定論的ロバスト性証明を提供する (de)randomized smoothing に着想を得たものである。
その結果,本手法は,強いコンテンツ挿入攻撃に対する不整合性を示し,ランダムなスムースティングに基づく防御性能に優れていた。
論文 参考訳(メタデータ) (2024-05-01T08:45:57Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - A Robust Defense against Adversarial Attacks on Deep Learning-based
Malware Detectors via (De)Randomized Smoothing [4.97719149179179]
本稿では,(デ)ランダム化平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,マルウェア作者が挿入した敵対的コンテンツを,バイトの関連部分集合を選択することでサンプリングする可能性を減らす。
論文 参考訳(メタデータ) (2024-02-23T11:30:12Z) - Towards a Practical Defense against Adversarial Attacks on Deep
Learning-based Malware Detectors via Randomized Smoothing [3.736916304884177]
本稿では,ランダムな平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,入力のランダム化にガウスノイズやラプラスノイズを使う代わりに,ランダム化アブレーションに基づく平滑化方式を提案する。
BODMASデータセットに対する様々な最先端の回避攻撃に対するアブレーションモデルの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2023-08-17T10:30:25Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。