論文の概要: FGAM:Fast Adversarial Malware Generation Method Based on Gradient Sign
- arxiv url: http://arxiv.org/abs/2305.12770v1
- Date: Mon, 22 May 2023 06:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:49:13.077145
- Title: FGAM:Fast Adversarial Malware Generation Method Based on Gradient Sign
- Title(参考訳): 勾配符号に基づくfgam:fast adversarial malware生成法
- Authors: Kun Li and Fan Zhang and Wei Guo
- Abstract要約: 敵対的攻撃は、敵対的サンプルを生成することによって、ディープラーニングモデルを欺くことである。
本稿では,FGAM(Fast Generate Adversarial Malware)を提案する。
FGAMが生成したマルウェア偽装モデルの成功率は,既存手法と比較して約84%増加することが実験的に検証された。
- 参考スコア(独自算出の注目度): 16.16005518623829
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malware detection models based on deep learning have been widely used, but
recent research shows that deep learning models are vulnerable to adversarial
attacks. Adversarial attacks are to deceive the deep learning model by
generating adversarial samples. When adversarial attacks are performed on the
malware detection model, the attacker will generate adversarial malware with
the same malicious functions as the malware, and make the detection model
classify it as benign software. Studying adversarial malware generation can
help model designers improve the robustness of malware detection models. At
present, in the work on adversarial malware generation for byte-to-image
malware detection models, there are mainly problems such as large amount of
injection perturbation and low generation efficiency. Therefore, this paper
proposes FGAM (Fast Generate Adversarial Malware), a method for fast generating
adversarial malware, which iterates perturbed bytes according to the gradient
sign to enhance adversarial capability of the perturbed bytes until the
adversarial malware is successfully generated. It is experimentally verified
that the success rate of the adversarial malware deception model generated by
FGAM is increased by about 84\% compared with existing methods.
- Abstract(参考訳): ディープラーニングに基づくマルウェア検出モデルは広く用いられているが、近年の研究により、ディープラーニングモデルは敵の攻撃に弱いことが示されている。
敵対的攻撃は、敵対的サンプルを生成することによってディープラーニングモデルを欺くことである。
マルウェア検出モデル上で敵意攻撃を行うと、攻撃者はマルウェアと同じ悪意のある機能を持つ敵意マルウェアを生成し、その検出モデルを良性ソフトウェアとして分類する。
敵対的マルウェア生成の研究は、モデルデザイナーがマルウェア検出モデルの堅牢性を向上させるのに役立つ。
現在、バイト・ツー・イメージのマルウェア検出モデルにおける敵対的マルウェア生成の研究において、大量のインジェクションの摂動や低生成効率といった課題が主に発生している。
そこで本論文では,fgam (fast generation adversarial malware) を提案する。fgam (fast generation adversarial malware) は,適応符号に従って乱数バイトを反復的に生成し,乱数バイトの逆数能力を向上させる。
FGAMが生成したマルウェア偽装モデルの成功率は,既存手法と比較して約85%増加することが実験的に検証された。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - On the Effectiveness of Adversarial Samples against Ensemble
Learning-based Windows PE Malware Detectors [0.0]
本稿では,GANとRLモデルを組み合わせることで,アンサンブル学習に基づく検出器の動作に対処する突然変異システムを提案する。
FeaGANモデルでは、アンサンブル学習を用いて、生成された対向パターンを用いて、マルウェア検出器の回避能力を向上する。
論文 参考訳(メタデータ) (2023-09-25T02:57:27Z) - The Power of MEME: Adversarial Malware Creation with Model-Based
Reinforcement Learning [0.7614628596146599]
この研究は、マルウェアの侵入とモデル抽出攻撃を組み合わせた新しいアルゴリズムを提案する。
MEMEは、モデルベースの強化学習を使用して、Windowsの実行可能バイナリサンプルを反対に修正する。
回避率は32-73%である。
論文 参考訳(メタデータ) (2023-08-31T08:55:27Z) - A Comparison of Adversarial Learning Techniques for Malware Detection [1.2289361708127875]
我々は、勾配に基づく、進化的アルゴリズムに基づく、強化に基づく手法を用いて、敵対的なサンプルを生成する。
実験により,強化学習手法を用いたGymマルウェア生成装置が最も実用性が高いことが示された。
論文 参考訳(メタデータ) (2023-08-19T09:22:32Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Mate! Are You Really Aware? An Explainability-Guided Testing Framework
for Robustness of Malware Detectors [49.34155921877441]
マルウェア検出装置のロバスト性を示すための説明可能性誘導型およびモデルに依存しないテストフレームワークを提案する。
次に、このフレームワークを使用して、操作されたマルウェアを検出する最先端のマルウェア検知器の能力をテストする。
我々の発見は、現在のマルウェア検知器の限界と、その改善方法に光を当てた。
論文 参考訳(メタデータ) (2021-11-19T08:02:38Z) - Mal2GCN: A Robust Malware Detection Approach Using Deep Graph
Convolutional Networks With Non-Negative Weights [1.3190581566723918]
実世界の敵に対するマルウェア検出モデルの堅牢性を評価するために,ブラックボックスのソースコードをベースとしたマルウェア生成手法を提案する。
そこで我々は,堅牢なマルウェア検出モデルであるMal2GCNを提案する。Mal2GCNは,グラフ畳み込みネットワークの表現力と非負重み学習法を組み合わせて,高い検出精度でマルウェア検出モデルを作成する。
論文 参考訳(メタデータ) (2021-08-27T19:42:13Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - MDEA: Malware Detection with Evolutionary Adversarial Learning [16.8615211682877]
MDEA(Adversarial Malware Detection)モデルであるMDEAは、進化的最適化を使用して攻撃サンプルを作成し、ネットワークを回避攻撃に対して堅牢にする。
進化したマルウェアサンプルでモデルを再トレーニングすることで、その性能は大幅に改善される。
論文 参考訳(メタデータ) (2020-02-09T09:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。