論文の概要: "How Does It Detect A Malicious App?" Explaining the Predictions of
AI-based Android Malware Detector
- arxiv url: http://arxiv.org/abs/2111.05108v1
- Date: Sat, 6 Nov 2021 11:25:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-11 04:26:32.883693
- Title: "How Does It Detect A Malicious App?" Explaining the Predictions of
AI-based Android Malware Detector
- Title(参考訳): 悪質なアプリをどうやって検出するのか?
AIベースのAndroidマルウェア検出器の予測について
- Authors: Zhi Lu and Vrizlynn L.L. Thing
- Abstract要約: そこで本研究では,Androidのマルウェア検出に応用したAIモデルに対して,新たなモデルに依存しない説明手法を提案する。
提案手法は,データの特徴と予測との関係を2つのステップで同定し,定量化する。
まず,提案手法は,AIモデルが定量的に相手のサンプルによってどのように回避されているかを検出するのに役立つことを実証する。
- 参考スコア(独自算出の注目度): 6.027885037254337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI methods have been proven to yield impressive performance on Android
malware detection. However, most AI-based methods make predictions of
suspicious samples in a black-box manner without transparency on models'
inference. The expectation on models' explainability and transparency by cyber
security and AI practitioners to assure the trustworthiness increases. In this
article, we present a novel model-agnostic explanation method for AI models
applied for Android malware detection. Our proposed method identifies and
quantifies the data features relevance to the predictions by two steps: i) data
perturbation that generates the synthetic data by manipulating features'
values; and ii) optimization of features attribution values to seek significant
changes of prediction scores on the perturbed data with minimal feature values
changes. The proposed method is validated by three experiments. We firstly
demonstrate that our proposed model explanation method can aid in discovering
how AI models are evaded by adversarial samples quantitatively. In the
following experiments, we compare the explainability and fidelity of our
proposed method with state-of-the-arts, respectively.
- Abstract(参考訳): AIメソッドは、Androidのマルウェア検出に素晴らしいパフォーマンスをもたらすことが証明されている。
しかし、ほとんどのAIベースの手法は、モデルの推論を透明にすることなく、不審なサンプルをブラックボックスで予測する。
信頼性の向上を保証するため、サイバーセキュリティとAI実践者によるモデルの説明可能性と透明性への期待。
本稿では,Androidのマルウェア検出に応用したAIモデルのモデルに依存しない新しい説明手法を提案する。
提案手法は,データの特徴を2つのステップで同定し,定量化する。
一 特徴の値を操作して合成データを生成するデータ摂動
二 最小特徴量変化を伴う摂動データにおける予測スコアの有意な変化を求めるための特徴帰属値の最適化
提案手法は3つの実験によって検証される。
まず,提案するモデル説明手法が,敵のサンプルからaiモデルがどのように回避されるのかを定量的に解明するのに役立つことを実証する。
以下の実験では,提案手法の妥当性と忠実度を最先端技術と比較した。
関連論文リスト
- PASA: Attack Agnostic Unsupervised Adversarial Detection using Prediction & Attribution Sensitivity Analysis [2.5347892611213614]
分類のためのディープニューラルネットワークは、サンプル入力に対する小さな摂動が誤った予測につながる敵攻撃に対して脆弱である。
本研究では, モデル予測と特徴属性のこの特性の実用的手法を開発し, 対向サンプルを検出する。
本手法は,敵が防御機構を認識した場合でも,競争性能を示す。
論文 参考訳(メタデータ) (2024-04-12T21:22:21Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Uncertainty-Aware AB3DMOT by Variational 3D Object Detection [74.8441634948334]
不確実性推定は統計的に正確な予測を提供する効果的なツールである。
本稿では,変分ニューラルネットワークを用いたTANet 3Dオブジェクト検出器を提案し,不確実性のある3Dオブジェクト検出を行う。
論文 参考訳(メタデータ) (2023-02-12T14:30:03Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Instance Attack:An Explanation-based Vulnerability Analysis Framework
Against DNNs for Malware Detection [0.0]
本稿では,インスタンスベースの攻撃の概念を提案する。
我々の方式は解釈可能であり、ブラックボックス環境でも機能する。
提案手法はブラックボックス設定で動作し,その結果をドメイン知識で検証することができる。
論文 参考訳(メタデータ) (2022-09-06T12:41:20Z) - PhilaeX: Explaining the Failure and Success of AI Models in Malware
Detection [6.264663726458324]
サイバーセキュリティにおける意思決定を支援するために使用されるAIモデルの予測に対する説明は、非常に重要である。
既存のAIモデルには、ほとんどのシナリオでパフォーマンスが強いにもかかわらず、予測結果に関する説明を提供する能力がない。
我々は、AIモデルの予測の完全な説明を形成するために、最適化された機能のサブセットを識別する手段を提供する、PhillaeXと呼ばれる新しい説明可能なAI手法を提案する。
論文 参考訳(メタデータ) (2022-07-02T05:06:24Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - On Predictive Explanation of Data Anomalies [3.1798318618973362]
PROTEUSは、不均衡なデータセットの機能選択用に設計されたAutoMLパイプラインである。
教師なし検出器の決定面を近似することで予測的な説明を生成する。
予期せぬデータで予測性能を確実に推定する。
論文 参考訳(メタデータ) (2021-10-18T16:59:28Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。