論文の概要: Robust Android Malware Detection System against Adversarial Attacks
using Q-Learning
- arxiv url: http://arxiv.org/abs/2101.12031v1
- Date: Wed, 27 Jan 2021 16:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 19:19:22.317913
- Title: Robust Android Malware Detection System against Adversarial Attacks
using Q-Learning
- Title(参考訳): Q-Learning を用いた敵攻撃に対するロバストAndroidマルウェア検出システム
- Authors: Hemant Rathore and Sanjay K. Sahay and Piyush Nikam and Mohit Sewak
- Abstract要約: 現在最先端のAndroidマルウェア検出システムは、機械学習とディープラーニングモデルに基づいている。
機械学習とディープニューラルネットワークに基づく8つのAndroidマルウェア検出モデルを開発し、敵攻撃に対するロバスト性を検討した。
我々はReinforcement Learningを使って新しいマルウェアの変種を作成し、既存のAndroidマルウェア検出モデルによって誤分類される。
- 参考スコア(独自算出の注目度): 2.179313476241343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current state-of-the-art Android malware detection systems are based on
machine learning and deep learning models. Despite having superior performance,
these models are susceptible to adversarial attacks. Therefore in this paper,
we developed eight Android malware detection models based on machine learning
and deep neural network and investigated their robustness against adversarial
attacks. For this purpose, we created new variants of malware using
Reinforcement Learning, which will be misclassified as benign by the existing
Android malware detection models. We propose two novel attack strategies,
namely single policy attack and multiple policy attack using reinforcement
learning for white-box and grey-box scenario respectively. Putting ourselves in
the adversary's shoes, we designed adversarial attacks on the detection models
with the goal of maximizing fooling rate, while making minimum modifications to
the Android application and ensuring that the app's functionality and behavior
do not change. We achieved an average fooling rate of 44.21% and 53.20% across
all the eight detection models with a maximum of five modifications using a
single policy attack and multiple policy attack, respectively. The highest
fooling rate of 86.09% with five changes was attained against the decision
tree-based model using the multiple policy approach. Finally, we propose an
adversarial defense strategy that reduces the average fooling rate by threefold
to 15.22% against a single policy attack, thereby increasing the robustness of
the detection models i.e. the proposed model can effectively detect variants
(metamorphic) of malware. The experimental analysis shows that our proposed
Android malware detection system using reinforcement learning is more robust
against adversarial attacks.
- Abstract(参考訳): 現在のandroidマルウェア検出システムは、機械学習とディープラーニングモデルに基づいている。
優れた性能にもかかわらず、これらのモデルは敵対攻撃の影響を受けやすい。
そこで本研究では,機械学習とディープニューラルネットワークに基づく8つのAndroidマルウェア検出モデルを開発し,敵攻撃に対するロバスト性を検討した。
そこで我々はReinforcement Learningを用いて,既存のAndroidマルウェア検出モデルによって誤分類されるマルウェアの新たな変種を作成した。
ホワイトボックスシナリオとグレーボックスシナリオに強化学習を用いた単一ポリシアタックと複数ポリシアタックの2つの新しいアタック戦略を提案する。
敵の靴に身を置くことで、我々は、Androidアプリケーションに最小限の変更を加えながら、アプリの機能や動作が変わらないことを保証しながら、不正行為率を最大化する目的で、検出モデルに対する敵攻撃を設計しました。
8つの検出モデルで平均44.21%と53.20%を達成し、1つのポリシーアタックと複数のポリシーアタックを使用して最大5つの修正を行った。
マルチポリシーアプローチを用いた決定木に基づくモデルに対して, 86.09%の不正行為率を5つの変更で達成した。
最後に, 単一の政策攻撃に対して, 平均だまし率を3倍から15.22%まで削減し, 検出モデルの堅牢性を高める対人防衛戦略を提案する。
提案モデルは,マルウェアの変種(変型)を効果的に検出する。
実験により,我々の提案するAndroidマルウェア検出システムは,敵攻撃に対してより堅牢であることがわかった。
関連論文リスト
- MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - MaMaDroid2.0 -- The Holes of Control Flow Graphs [5.838266102141281]
本稿では,アプリケーションの制御フローグラフを解析する,有名なAndroidマルウェア検出システムMaMaDroidについて検討する。
良性サンプルと悪質サンプルの比率の変化は各モデルに明らかな影響を及ぼし、検出率は40%以上減少する。
対象モデルのそれぞれに対して、CFGとその検出率を操作する3つの新しい攻撃を記述する。
この攻撃は、悪意のあるアプリに対する良さの比率が異なるため、ほとんどのモデルの検出率を0%に下げる。
論文 参考訳(メタデータ) (2022-02-28T16:18:15Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Binary Black-box Evasion Attacks Against Deep Learning-based Static
Malware Detectors with Adversarial Byte-Level Language Model [11.701290164823142]
MalRNNは、制限なく回避可能なマルウェアバリアントを自動的に生成する新しいアプローチです。
MalRNNは、3つの最近のディープラーニングベースのマルウェア検出器を効果的に回避し、現在のベンチマークメソッドを上回ります。
論文 参考訳(メタデータ) (2020-12-14T22:54:53Z) - Being Single Has Benefits. Instance Poisoning to Deceive Malware
Classifiers [47.828297621738265]
攻撃者は、マルウェア分類器を訓練するために使用されるデータセットをターゲットとした、高度で効率的な中毒攻撃を、どのように起動できるかを示す。
マルウェア検出領域における他の中毒攻撃とは対照的に、我々の攻撃はマルウェアファミリーではなく、移植されたトリガーを含む特定のマルウェアインスタンスに焦点を当てている。
我々は、この新たに発見された深刻な脅威に対する将来の高度な防御に役立つ包括的検出手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:27:44Z) - Adversarial Deep Ensemble: Evasion Attacks and Defenses for Malware
Detection [8.551227913472632]
悪意のある機能を損なうことなく、マルウェアの例を妨害する新たな攻撃手法を提案する。
このことは、ディープニューラルネットワークのアンサンブルを強化するために、敵のトレーニングの新たなインスタンス化につながる。
2つの実用的なデータセットに対する26の異なる攻撃に対して,Androidマルウェア検出器を用いた防御評価を行った。
論文 参考訳(メタデータ) (2020-06-30T05:56:33Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - MDEA: Malware Detection with Evolutionary Adversarial Learning [16.8615211682877]
MDEA(Adversarial Malware Detection)モデルであるMDEAは、進化的最適化を使用して攻撃サンプルを作成し、ネットワークを回避攻撃に対して堅牢にする。
進化したマルウェアサンプルでモデルを再トレーニングすることで、その性能は大幅に改善される。
論文 参考訳(メタデータ) (2020-02-09T09:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。