論文の概要: Certified Robustness of Learning-based Static Malware Detectors
- arxiv url: http://arxiv.org/abs/2302.01757v1
- Date: Tue, 31 Jan 2023 01:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-12 13:13:30.972354
- Title: Certified Robustness of Learning-based Static Malware Detectors
- Title(参考訳): 学習に基づく静的マルウェア検出器のロバスト性
- Authors: Zhuoqun Huang, Neil G. Marchant, Keane Lucas, Lujo Bauer, Olga
Ohrimenko and Benjamin I. P. Rubinstein
- Abstract要約: 認証された防御は、敵の摂動に対する機械学習モデルの堅牢性を厳格に保証することを目的としている。
MLベースのシステムに対する攻撃が現実的かつ現在の脅威となる領域であるマルウェア検出のための認証された防御について検討する。
入力の91%を正確に分類でき、編集距離128バイト以下の敵の摂動に対して確実に頑健である。
- 参考スコア(独自算出の注目度): 21.583175782961668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Certified defenses are a recent development in adversarial machine learning
(ML), which aim to rigorously guarantee the robustness of ML models to
adversarial perturbations. A large body of work studies certified defenses in
computer vision, where $\ell_p$ norm-bounded evasion attacks are adopted as a
tractable threat model. However, this threat model has known limitations in
vision, and is not applicable to other domains -- e.g., where inputs may be
discrete or subject to complex constraints. Motivated by this gap, we study
certified defenses for malware detection, a domain where attacks against
ML-based systems are a real and current threat. We consider static malware
detection systems that operate on byte-level data. Our certified defense is
based on the approach of randomized smoothing which we adapt by: (1) replacing
the standard Gaussian randomization scheme with a novel deletion randomization
scheme that operates on bytes or chunks of an executable; and (2) deriving a
certificate that measures robustness to evasion attacks in terms of generalized
edit distance. To assess the size of robustness certificates that are
achievable while maintaining high accuracy, we conduct experiments on malware
datasets using a popular convolutional malware detection model, MalConv. We are
able to accurately classify 91% of the inputs while being certifiably robust to
any adversarial perturbations of edit distance 128 bytes or less. By
comparison, an existing certification of up to 128 bytes of substitutions
(without insertions or deletions) achieves an accuracy of 78%. In addition,
given that robustness certificates are conservative, we evaluate practical
robustness to several recently published evasion attacks and, in some cases,
find robustness beyond certified guarantees.
- Abstract(参考訳): 認証された防御は、敵の摂動に対するMLモデルの堅牢性を厳格に保証することを目的とした、敵の機械学習(ML)の最近の発展である。
多くの研究機関がコンピュータビジョンにおける防御を認定し、難解な脅威モデルとして$\ell_p$のノルムバウンド回避攻撃が採用されている。
しかし、この脅威モデルには視覚上の既知の制限があり、例えば入力が離散的である場合や複雑な制約を受ける場合など、他の領域には適用できない。
このギャップに動機づけられ、mlベースのシステムに対する攻撃が現実および現在の脅威となる領域であるマルウェア検出の認定防御について研究した。
バイトレベルのデータを扱う静的マルウェア検出システムについて検討する。
認証された防御は,(1) 標準的なガウス型ランダム化スキームを,実行ファイルのバイトやチャンクで動作する新しい削除型ランダム化スキームに置き換える,(2) 汎用的な編集距離で回避攻撃に対するロバスト性を測定する証明書を導出する,という,ランダム化平滑化のアプローチに基づいている。
高い精度を維持しながら達成可能なロバスト性証明書のサイズを評価するため,一般的な畳み込みマルウェア検出モデルであるMalConvを用いてマルウェアデータセットの実験を行った。
入力の91%を正確に分類でき、編集距離128バイト以下の敵の摂動に対して確実に堅牢である。
比較として、最大128バイトの置換(挿入や削除なし)の既存の認証は、78%の精度を達成している。
また、ロバスト性証明書が保守的であることを考慮し、最近公表されたいくつかの回避攻撃に対する実用的なロバスト性を評価し、場合によっては認定保証を超えるロバスト性を見出す。
関連論文リスト
- A Robust Defense against Adversarial Attacks on Deep Learning-based
Malware Detectors via (De)Randomized Smoothing [4.97719149179179]
本稿では,(デ)ランダム化平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,マルウェア作者が挿入した敵対的コンテンツを,バイトの関連部分集合を選択することでサンプリングする可能性を減らす。
論文 参考訳(メタデータ) (2024-02-23T11:30:12Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z) - Adversarially Robust Classifier with Covariate Shift Adaptation [25.39995678746662]
既存の敵の訓練されたモデルは通常、テスト例に対して互いに独立して推論を行う。
単純な適応バッチ正規化(BN)技術は、ランダムな摂動に対してこれらのモデルのロバスト性を大幅に向上させることができることを示す。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-02-09T19:51:56Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Robustness Verification for Classifier Ensembles [3.5884936187733394]
堅牢性チェック問題は、ランダムな攻撃が存在するかどうかに関わらず、分類器とラベル付きデータセットのセットを与えられた評価によって成る。
問題のNP硬度を示し、最適なランダム化攻撃を形成するのに十分な攻撃数に上限を与える。
プロトタイプ実装では、画像分類タスクのために訓練された複数のニューラルネットワークアンサンブルを検証する。
論文 参考訳(メタデータ) (2020-05-12T07:38:43Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。