論文の概要: Level Up with RealAEs: Leveraging Domain Constraints in Feature Space to
Strengthen Robustness of Android Malware Detection
- arxiv url: http://arxiv.org/abs/2205.15128v3
- Date: Sun, 11 Jun 2023 06:37:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 03:00:09.473956
- Title: Level Up with RealAEs: Leveraging Domain Constraints in Feature Space to
Strengthen Robustness of Android Malware Detection
- Title(参考訳): RealAEによるレベルアップ: Androidのマルウェア検出のロバスト性を高めるために特徴空間におけるドメイン制約を活用する
- Authors: Hamid Bostani, Zhengyu Zhao, Zhuoran Liu, Veelasha Moonsamy
- Abstract要約: 敵の例に対する脆弱性は、マシンラーニング(ML)ベースのAndroidマルウェア検出において、依然として大きな障害となっている。
本稿では,機能領域におけるRealAEの生成を提案する。
当社のアプローチは,機能領域におけるAndroidドメイン制約の新たな解釈によるものです。
- 参考スコア(独自算出の注目度): 6.721598112028829
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The vulnerability to adversarial examples remains one major obstacle for
Machine Learning (ML)-based Android malware detection. Realistic attacks in the
Android malware domain create Realizable Adversarial Examples (RealAEs), i.e.,
AEs that satisfy the domain constraints of Android malware. Recent studies have
shown that using such RealAEs in Adversarial Training (AT) is more effective in
defending against realistic attacks than using unrealizable AEs (unRealAEs).
This is because RealAEs allow defenders to explore certain pockets in the
feature space that are vulnerable to realistic attacks. However, existing
defenses commonly generate RealAEs in the problem space, which is known to be
time-consuming and impractical for AT. In this paper, we propose to generate
RealAEs in the feature space, leading to a simpler and more efficient solution.
Our approach is driven by a novel interpretation of Android domain constraints
in the feature space. More concretely, our defense first learns feature-space
domain constraints by extracting meaningful feature dependencies from data and
then applies them to generating feature-space RealAEs during AT. Extensive
experiments on DREBIN, a well-known Android malware detector, demonstrate that
our new defense outperforms not only unRealAE-based AT but also the
state-of-the-art defense that relies on non-uniform perturbations. We further
validate the ability of our learned feature-space domain constraints in
representing Android malware properties by showing that our feature-space
domain constraints can help distinguish RealAEs from unRealAEs.
- Abstract(参考訳): 敵の例に対する脆弱性は、マシンラーニング(ML)ベースのAndroidマルウェア検出において、依然として大きな障害となっている。
Androidマルウェアドメインにおける現実的な攻撃は、Realizable Adversarial Examples (RealAEs)、すなわちAndroidマルウェアのドメイン制約を満たすAEを作成する。
近年の研究では、RealAEs in Adversarial Training (AT)は非現実的なAEs(unRealAEs)よりも現実的な攻撃に対する防御に有効であることが示されている。
これはRealAEが、現実的な攻撃に対して脆弱な機能領域において、ディフェンダーが特定のポケットを探索できるようにするためである。
しかし、既存の防衛は一般に問題空間でRealAEを生成するが、これはATにとって時間がかかり非現実的であることが知られている。
本稿では,よりシンプルで効率的な解法を実現するために,機能空間における実数を生成することを提案する。
当社のアプローチは,機能領域におけるAndroidドメイン制約の新たな解釈によるものです。
具体的には,データから有意義な特徴依存を抽出し,AT中に特徴空間RealAEの生成に適用することにより,まず特徴空間領域の制約を学習する。
有名なAndroidマルウェア検出装置であるDREBINの大規模な実験により、我々の新しい防御効果は、非RealAEベースのATだけでなく、非一様摂動に依存する最先端の防御能力でも優れていることが実証された。
我々は,Androidのマルウェア特性を表現する上で,学習した機能空間ドメイン制約が,RealAEとunRealAEの区別に役立つことを示すことによって,さらに検証を行った。
関連論文リスト
- Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - Improving Adversarial Robustness in Android Malware Detection by Reducing the Impact of Spurious Correlations [3.7937308360299116]
機械学習(ML)は、Androidのマルウェア検出(AMD)において大きな進歩を見せている。
しかし、現実的な回避攻撃に対するMLのレジリエンスは、AMDにとって大きな障害である。
本研究では,マルウェアサンプルとAEの分布を調整することで,AMDの一般化性を向上させるための領域適応手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T17:01:12Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z) - Universal Adversarial Perturbations for Malware [15.748648955898528]
universal adversarial perturbation (uaps) は入力空間全体に一般化するノイズパターンを特定する。
マルウェア分類におけるUAPの課題と強みについて検討する。
本稿では,問題空間変換に基づく知識を用いた逆トレーニングに基づく緩和を提案する。
論文 参考訳(メタデータ) (2021-02-12T20:06:10Z) - SLAP: Improving Physical Adversarial Examples with Short-Lived
Adversarial Perturbations [19.14079118174123]
Short-Lived Adrial Perturbations (SLAP) は、光プロジェクターを用いて、敵が物理的に堅牢な現実世界のAEを実現できる新しい技術である。
SLAPは、敵のパッチよりも敵の攻撃に対するコントロールを大きくする。
自動走行シナリオにおけるSLAPの実現可能性について検討し,物体検出タスクと交通標識認識タスクの両方を対象として検討した。
論文 参考訳(メタデータ) (2020-07-08T14:11:21Z) - Intriguing Properties of Adversarial ML Attacks in the Problem Space [Extended Version] [18.3238686304247]
問題空間における敵ML回避攻撃の一般化を提案する。
セマンティクスやアーティファクトの観点から過去の制限を克服する,Androidマルウェアに対する新たな問題空間攻撃を提案する。
我々の結果は、"サービスとしてのアドバイサル・マルウェア"が現実的な脅威であることを示している。
論文 参考訳(メタデータ) (2019-11-05T23:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。