論文の概要: Intriguing Properties of Adversarial ML Attacks in the Problem Space [Extended Version]
- arxiv url: http://arxiv.org/abs/1911.02142v3
- Date: Thu, 27 Jun 2024 08:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 12:18:29.154466
- Title: Intriguing Properties of Adversarial ML Attacks in the Problem Space [Extended Version]
- Title(参考訳): 問題空間における敵ML攻撃の誘引特性 [拡張版]
- Authors: Jacopo Cortellazzi, Feargus Pendlebury, Daniel Arp, Erwin Quiring, Fabio Pierazzi, Lorenzo Cavallaro,
- Abstract要約: 問題空間における敵ML回避攻撃の一般化を提案する。
セマンティクスやアーティファクトの観点から過去の制限を克服する,Androidマルウェアに対する新たな問題空間攻撃を提案する。
我々の結果は、"サービスとしてのアドバイサル・マルウェア"が現実的な脅威であることを示している。
- 参考スコア(独自算出の注目度): 18.3238686304247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research efforts on adversarial machine learning (ML) have investigated problem-space attacks, focusing on the generation of real evasive objects in domains where, unlike images, there is no clear inverse mapping to the feature space (e.g., software). However, the design, comparison, and real-world implications of problem-space attacks remain underexplored. This article makes three major contributions. Firstly, we propose a general formalization for adversarial ML evasion attacks in the problem-space, which includes the definition of a comprehensive set of constraints on available transformations, preserved semantics, absent artifacts, and plausibility. We shed light on the relationship between feature space and problem space, and we introduce the concept of side-effect features as the by-product of the inverse feature-mapping problem. This enables us to define and prove necessary and sufficient conditions for the existence of problem-space attacks. Secondly, building on our general formalization, we propose a novel problem-space attack on Android malware that overcomes past limitations in terms of semantics and artifacts. We have tested our approach on a dataset with 150K Android apps from 2016 and 2018 which show the practical feasibility of evading a state-of-the-art malware classifier along with its hardened version. Thirdly, we explore the effectiveness of adversarial training as a possible approach to enforce robustness against adversarial samples, evaluating its effectiveness on the considered machine learning models under different scenarios. Our results demonstrate that "adversarial-malware as a service" is a realistic threat, as we automatically generate thousands of realistic and inconspicuous adversarial applications at scale, where on average it takes only a few minutes to generate an adversarial instance.
- Abstract(参考訳): 近年の機械学習(ML)研究は、画像とは異なり、特徴空間への明確な逆マッピング(ソフトウェアなど)が存在しない領域において、実際の回避対象の生成に焦点を当て、問題空間攻撃を調査している。
しかし、問題空間攻撃の設計、比較、現実的な意味はいまだに未解明のままである。
この記事では3つの大きな貢献をします。
まず、問題空間における敵ML回避攻撃の一般的な形式化を提案し、利用可能な変換、保存されたセマンティクス、欠落したアーティファクト、そして妥当性に関する包括的な制約セットの定義を含む。
我々は,特徴空間と問題空間の関係に光を当て,逆特徴マッピング問題の副産物として副作用特徴の概念を導入する。
これにより、問題空間攻撃の存在に必要かつ十分な条件を定義し、証明することができる。
第2に,我々の一般的なフォーマル化に基づいて,セマンティクスやアーティファクトの観点から過去の制限を克服した,Androidマルウェアに対する新たな問題空間攻撃を提案する。
我々は、2016年と2018年の1万5000のAndroidアプリによるデータセットで、我々のアプローチをテストした。
第3に,異なるシナリオ下で検討された機械学習モデルにおいて,敵のサンプルに対して頑健性を強制する可能なアプローチとして,敵のトレーニングの有効性について検討する。
我々の結果は、"サービスとしての敵対的マルウェア(adversarial-malware as a service)"が現実的な脅威であることを示している。
関連論文リスト
- Improving Adversarial Robustness in Android Malware Detection by Reducing the Impact of Spurious Correlations [3.7937308360299116]
機械学習(ML)は、Androidのマルウェア検出(AMD)において大きな進歩を見せている。
しかし、現実的な回避攻撃に対するMLのレジリエンスは、AMDにとって大きな障害である。
本研究では,マルウェアサンプルとAEの分布を調整することで,AMDの一般化性を向上させるための領域適応手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T17:01:12Z) - How to Train your Antivirus: RL-based Hardening through the Problem-Space [22.056941223966255]
経験的ロバスト性を与える唯一の防御技術である逆行訓練は、この領域の最初から適用できない。
本稿では,敵のモデル構築のための新たな強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-02-29T10:38:56Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Level Up with RealAEs: Leveraging Domain Constraints in Feature Space to
Strengthen Robustness of Android Malware Detection [6.721598112028829]
敵の例に対する脆弱性は、マシンラーニング(ML)ベースのAndroidマルウェア検出において、依然として大きな障害となっている。
本稿では,機能領域におけるRealAEの生成を提案する。
当社のアプローチは,機能領域におけるAndroidドメイン制約の新たな解釈によるものです。
論文 参考訳(メタデータ) (2022-05-30T14:21:16Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - A Unified Framework for Adversarial Attack and Defense in Constrained
Feature Space [13.096022606256973]
本稿では、与えられたドメイン制約を満たす実行可能な逆例を生成するための統一的なフレームワークを提案する。
我々のフレームワークは、制約された敵攻撃の研究の出発点を形成し、研究が活用できる関連するベースラインとデータセットを提供します。
論文 参考訳(メタデータ) (2021-12-02T12:05:27Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Universal Adversarial Perturbations for Malware [15.748648955898528]
universal adversarial perturbation (uaps) は入力空間全体に一般化するノイズパターンを特定する。
マルウェア分類におけるUAPの課題と強みについて検討する。
本稿では,問題空間変換に基づく知識を用いた逆トレーニングに基づく緩和を提案する。
論文 参考訳(メタデータ) (2021-02-12T20:06:10Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。