論文の概要: Adversarial Patterns: Building Robust Android Malware Classifiers
- arxiv url: http://arxiv.org/abs/2203.02121v1
- Date: Fri, 4 Mar 2022 03:47:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 22:45:51.059720
- Title: Adversarial Patterns: Building Robust Android Malware Classifiers
- Title(参考訳): adversarial patterns: 堅牢なandroidマルウェア分類器の構築
- Authors: Dipkamal Bhusal, Nidhi Rastogi
- Abstract要約: 本稿では,アンドロイドマルウェアに対する対人機械学習について述べる。
まず、画像ベースとテキストベースの特徴抽出アプローチの両方をカバーする、アンドロイドマルウェアの機械学習分類器を構築する際の幅広い背景を示す。
次に,避難攻撃と防衛に関する最先端研究のパターンと進展について検討する。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based classifiers have substantially improved recognition of
malware samples. However, these classifiers can be vulnerable to adversarial
input perturbations. Any vulnerability in malware classifiers poses significant
threats to the platforms they defend. Therefore, to create stronger defense
models against malware, we must understand the patterns in input perturbations
caused by an adversary. This survey paper presents a comprehensive study on
adversarial machine learning for android malware classifiers. We first present
an extensive background in building a machine learning classifier for android
malware, covering both image-based and text-based feature extraction
approaches. Then, we examine the pattern and advancements in the
state-of-the-art research in evasion attacks and defenses. Finally, we present
guidelines for designing robust malware classifiers and enlist research
directions for the future.
- Abstract(参考訳): ディープラーニングに基づく分類器は、マルウェアサンプルの認識を大幅に改善した。
しかし、これらの分類器は逆入力摂動に対して脆弱である。
マルウェア分類器の脆弱性は、彼らが防御するプラットフォームに重大な脅威をもたらす。
したがって,マルウェアに対する防御モデルを構築するためには,敵による入力摂動のパターンを理解する必要がある。
本研究は,アンドロイドマルウェア分類器の対人機械学習に関する総合的研究である。
まず,androidマルウェア用機械学習分類器の構築において,画像ベースとテキストに基づく特徴抽出手法の両方をカバーする幅広い背景を示す。
次に,回避攻撃と防衛に関する最先端研究のパターンと進展について検討する。
最後に,ロバストなマルウェア分類器の設計ガイドラインと今後の研究指針を提案する。
関連論文リスト
- A Malware Classification Survey on Adversarial Attacks and Defences [0.0]
ディープラーニングモデルはマルウェアの検出には有効だが、敵の攻撃に対して脆弱である。
このような攻撃は、検出に抵抗する悪意のあるファイルを生成し、重大なサイバーセキュリティリスクを生み出す。
近年の研究では、いくつかの敵対的攻撃と反応のアプローチが開発されている。
論文 参考訳(メタデータ) (2023-12-15T09:25:48Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Design of secure and robust cognitive system for malware detection [0.571097144710995]
インプットサンプルに摂動をインテリジェントに作り、付加することで、敵対するサンプルが生成される。
この論文の目的は、重要なシステムのセキュリティ問題に対処することである。
ステルス性マルウェアを検出する新しい手法が提案されている。
論文 参考訳(メタデータ) (2022-08-03T18:52:38Z) - Evading Malware Classifiers via Monte Carlo Mutant Feature Discovery [23.294653273180472]
悪意のあるアクターが代理モデルを訓練して、インスタンスが誤分類される原因となるバイナリ変異を発見する方法を示す。
そして、変異したマルウェアが、抗ウイルスAPIの代わりとなる被害者モデルに送られ、検出を回避できるかどうかをテストする。
論文 参考訳(メタデータ) (2021-06-15T03:31:02Z) - Binary Black-box Evasion Attacks Against Deep Learning-based Static
Malware Detectors with Adversarial Byte-Level Language Model [11.701290164823142]
MalRNNは、制限なく回避可能なマルウェアバリアントを自動的に生成する新しいアプローチです。
MalRNNは、3つの最近のディープラーニングベースのマルウェア検出器を効果的に回避し、現在のベンチマークメソッドを上回ります。
論文 参考訳(メタデータ) (2020-12-14T22:54:53Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Poisoned classifiers are not only backdoored, they are fundamentally
broken [84.67778403778442]
一般的に研究されている、分類モデルに対するバックドア中毒攻撃の下で、攻撃者はトレーニングデータのサブセットに小さなトリガーを追加する。
毒を盛った分類器は、引き金を持つ敵のみに弱いと推定されることが多い。
本稿では,このバックドア型分類器の考え方が誤りであることを実証的に示す。
論文 参考訳(メタデータ) (2020-10-18T19:42:44Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。