論文の概要: Do Gradient-based Explanations Tell Anything About Adversarial
Robustness to Android Malware?
- arxiv url: http://arxiv.org/abs/2005.01452v2
- Date: Thu, 27 May 2021 15:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:30:24.535015
- Title: Do Gradient-based Explanations Tell Anything About Adversarial
Robustness to Android Malware?
- Title(参考訳): グラデーションに基づく説明は、androidマルウェアに対する敵意の強固さについて何か教えてくれるか?
- Authors: Marco Melis, Michele Scalas, Ambra Demontis, Davide Maiorca, Battista
Biggio, Giorgio Giacinto, Fabio Roli
- Abstract要約: よりロバストなアルゴリズムの同定と選択に勾配に基づく属性法が有効かどうかを検討する。
2つの異なるデータセットと5つの分類アルゴリズムによるAndroidマルウェア検出実験により、説明の均一性と敵の堅牢性との間に強いつながりがあることが示されている。
- 参考スコア(独自算出の注目度): 20.11888851905904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While machine-learning algorithms have demonstrated a strong ability in
detecting Android malware, they can be evaded by sparse evasion attacks crafted
by injecting a small set of fake components, e.g., permissions and system
calls, without compromising intrusive functionality. Previous work has shown
that, to improve robustness against such attacks, learning algorithms should
avoid overemphasizing few discriminant features, providing instead decisions
that rely upon a large subset of components. In this work, we investigate
whether gradient-based attribution methods, used to explain classifiers'
decisions by identifying the most relevant features, can be used to help
identify and select more robust algorithms. To this end, we propose to exploit
two different metrics that represent the evenness of explanations, and a new
compact security measure called Adversarial Robustness Metric. Our experiments
conducted on two different datasets and five classification algorithms for
Android malware detection show that a strong connection exists between the
uniformity of explanations and adversarial robustness. In particular, we found
that popular techniques like Gradient*Input and Integrated Gradients are
strongly correlated to security when applied to both linear and nonlinear
detectors, while more elementary explanation techniques like the simple
Gradient do not provide reliable information about the robustness of such
classifiers.
- Abstract(参考訳): 機械学習アルゴリズムは、Androidマルウェアを検出できる強力な能力を示しているが、侵入機能を損なうことなく、例えば許可やシステムコールなどの小さな偽のコンポーネントを注入することで、わずかな回避攻撃によって回避することができる。
これまでの研究によると、このような攻撃に対する堅牢性を改善するために、学習アルゴリズムは少数の差別的特徴を過度に強調することを避け、代わりにコンポーネントの大規模なサブセットに依存する決定を提供するべきである。
本研究では,よりロバストなアルゴリズムを識別・選択するために,最も関連する特徴を識別することで分類器の判断を説明するために用いられる勾配に基づく帰属法について検討する。
この目的のために、説明の均一性を表す2つの異なるメトリクスと、Adversarial Robustness Metricと呼ばれる新しいコンパクトなセキュリティ対策を提案する。
2つの異なるデータセットと5つのandroidマルウェア検出のための分類アルゴリズムを用いて実験を行った結果、説明の均一性と敵対的ロバスト性の間に強い関係があることが判明した。
特に,グラデーション*インプットや統合勾配といった一般的な手法は,線形および非線形検出器の両方に適用した場合のセキュリティに強く相関するが,単純なグラデーションのようなより基本的な説明手法は,そのような分類器の頑健性に関する信頼できる情報を提供していない。
関連論文リスト
- A Robust Defense against Adversarial Attacks on Deep Learning-based
Malware Detectors via (De)Randomized Smoothing [4.97719149179179]
本稿では,(デ)ランダム化平滑化に触発された敵のマルウェアに対する現実的な防御法を提案する。
本研究では,マルウェア作者が挿入した敵対的コンテンツを,バイトの関連部分集合を選択することでサンプリングする可能性を減らす。
論文 参考訳(メタデータ) (2024-02-23T11:30:12Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Transcending Forgery Specificity with Latent Space Augmentation for
Generalizable Deepfake Detection [61.845902530915325]
LSDAと呼ばれる簡易で効果的なディープフェイク検出器を提案する。
それは偽りの考えに基づいており、より多様な偽の表現はより一般化可能な決定境界を学べるべきである。
提案手法は驚くほど有効であり, 広く使用されている複数のベンチマークで最先端の検出器を超越することを示す。
論文 参考訳(メタデータ) (2023-11-19T09:41:10Z) - False Sense of Security: Leveraging XAI to Analyze the Reasoning and
True Performance of Context-less DGA Classifiers [1.930852251165745]
ディープラーニング分類器が99.9%以上の精度を達成したことを考えると、ドメイン生成アルゴリズム(DGA)の検出は解決されているようである。
これらの分類器は、非常に偏りがあり、自明な検出バイパスを可能にするため、誤ったセキュリティ感覚を提供する。
本研究では,説明可能な人工知能(XAI)手法を用いて,ディープラーニング分類器の推論を解析する。
論文 参考訳(メタデータ) (2023-07-10T06:05:23Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - The Treasure Beneath Multiple Annotations: An Uncertainty-aware Edge
Detector [70.43599299422813]
既存のメソッドは、単純な投票プロセスを使用して複数のアノテーションを融合し、エッジ固有の曖昧さを無視し、アノテータのラベル付けバイアスを無視する。
多様なアノテーションの主観性とあいまいさを調査するために不確実性を利用した新しい不確実性認識エッジ検出器(UAED)を提案する。
UAEDは複数のエッジ検出ベンチマークで一貫したパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-03-21T13:14:36Z) - Instance Attack:An Explanation-based Vulnerability Analysis Framework
Against DNNs for Malware Detection [0.0]
本稿では,インスタンスベースの攻撃の概念を提案する。
我々の方式は解釈可能であり、ブラックボックス環境でも機能する。
提案手法はブラックボックス設定で動作し,その結果をドメイン知識で検証することができる。
論文 参考訳(メタデータ) (2022-09-06T12:41:20Z) - A two-steps approach to improve the performance of Android malware
detectors [4.440024971751226]
マルウェア検知器の性能を高めるための教師付き表現学習法であるGUIDED ReTRAINingを提案する。
265k以上のマルウェアと良性アプリを用いて,最先端の4つのAndroidマルウェア検出手法を検証した。
本手法は汎用的であり,二項分類タスクにおける分類性能を向上させるように設計されている。
論文 参考訳(メタデータ) (2022-05-17T12:04:17Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。