論文の概要: Improving Adversarial Robustness in Android Malware Detection by Reducing the Impact of Spurious Correlations
- arxiv url: http://arxiv.org/abs/2408.16025v1
- Date: Tue, 27 Aug 2024 17:01:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 18:04:21.209974
- Title: Improving Adversarial Robustness in Android Malware Detection by Reducing the Impact of Spurious Correlations
- Title(参考訳): 偽相関の低減によるAndroidマルウェア検出における対向ロバスト性の改善
- Authors: Hamid Bostani, Zhengyu Zhao, Veelasha Moonsamy,
- Abstract要約: 機械学習(ML)は、Androidのマルウェア検出(AMD)において大きな進歩を見せている。
しかし、現実的な回避攻撃に対するMLのレジリエンスは、AMDにとって大きな障害である。
本研究では,マルウェアサンプルとAEの分布を調整することで,AMDの一般化性を向上させるための領域適応手法を提案する。
- 参考スコア(独自算出の注目度): 3.7937308360299116
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning (ML) has demonstrated significant advancements in Android malware detection (AMD); however, the resilience of ML against realistic evasion attacks remains a major obstacle for AMD. One of the primary factors contributing to this challenge is the scarcity of reliable generalizations. Malware classifiers with limited generalizability tend to overfit spurious correlations derived from biased features. Consequently, adversarial examples (AEs), generated by evasion attacks, can modify these features to evade detection. In this study, we propose a domain adaptation technique to improve the generalizability of AMD by aligning the distribution of malware samples and AEs. Specifically, we utilize meaningful feature dependencies, reflecting domain constraints in the feature space, to establish a robust feature space. Training on the proposed robust feature space enables malware classifiers to learn from predefined patterns associated with app functionality rather than from individual features. This approach helps mitigate spurious correlations inherent in the initial feature space. Our experiments conducted on DREBIN, a renowned Android malware detector, demonstrate that our approach surpasses the state-of-the-art defense, Sec-SVM, when facing realistic evasion attacks. In particular, our defense can improve adversarial robustness by up to 55% against realistic evasion attacks compared to Sec-SVM.
- Abstract(参考訳): 機械学習(ML)は、Androidマルウェア検出(AMD)の大幅な進歩を示しているが、現実的な回避攻撃に対するMLのレジリエンスは、AMDにとって大きな障害である。
この問題に寄与する主要な要因の1つは、信頼できる一般化の不足である。
限定的な一般化性を持つマルウェア分類器は、偏りのある特徴から派生した突発的相関を過度に満たす傾向がある。
その結果、回避攻撃によって生成された敵例(AE)は、これらの特徴を検出を避けるために修正することができる。
本研究では,マルウェアサンプルとAEの分布を調整することで,AMDの一般化性を向上させるための領域適応手法を提案する。
具体的には、機能領域におけるドメイン制約を反映した意味のある機能依存を活用して、堅牢な機能領域を確立します。
提案された堅牢な機能空間のトレーニングにより、マルウェア分類器は個々の機能ではなく、アプリ機能に関連する事前に定義されたパターンから学ぶことができる。
このアプローチは、初期特徴空間に固有の急激な相関を緩和するのに役立つ。
筆者らは,Android マルウェア検知器 DREBIN を用いた実験を行い,現実的な回避攻撃に直面した場合,我々のアプローチが最先端の防御装置 Sec-SVM を上回ることを示した。
特に,Sec-SVMと比較して,現実的な回避攻撃に対して,敵の堅牢性を最大55%向上させることができる。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - How to Train your Antivirus: RL-based Hardening through the Problem-Space [22.056941223966255]
経験的ロバスト性を与える唯一の防御技術である逆行訓練は、この領域の最初から適用できない。
本稿では,敵のモデル構築のための新たな強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-02-29T10:38:56Z) - MalPurifier: Enhancing Android Malware Detection with Adversarial
Purification against Evasion Attacks [19.68134775248897]
MalPurifierは敵の浄化を利用して、独立して摂動を除去し、軽く柔軟な方法で攻撃を緩和する。
2つのAndroidマルウェアデータセットの実験結果は、MalPurifierが最先端の防御よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-12-11T14:48:43Z) - Mitigating Adversarial Vulnerability through Causal Parameter Estimation
by Adversarial Double Machine Learning [33.18197518590706]
視覚入力に対する故意に作られた摂動から導かれる敵の例は、ディープニューラルネットワークの決定プロセスに容易に害を与える可能性がある。
本稿では,adversarial Double Machine Learning (ADML) と呼ばれる因果的アプローチを導入する。
ADMLは, 対向的摂動の因果パラメータを直接推定し, 強靭性を損なう可能性のある負の効果を緩和することができる。
論文 参考訳(メタデータ) (2023-07-14T09:51:26Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Universal Adversarial Perturbations for Malware [15.748648955898528]
universal adversarial perturbation (uaps) は入力空間全体に一般化するノイズパターンを特定する。
マルウェア分類におけるUAPの課題と強みについて検討する。
本稿では,問題空間変換に基づく知識を用いた逆トレーニングに基づく緩和を提案する。
論文 参考訳(メタデータ) (2021-02-12T20:06:10Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。