論文の概要: OFEI: A Semi-black-box Android Adversarial Sample Attack Framework
Against DLaaS
- arxiv url: http://arxiv.org/abs/2105.11593v1
- Date: Tue, 25 May 2021 01:02:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 13:58:53.450166
- Title: OFEI: A Semi-black-box Android Adversarial Sample Attack Framework
Against DLaaS
- Title(参考訳): OFEI: DLaaSに対するAndroidの準ブラックボックスのサンプルアタックフレームワーク
- Authors: Guangquan Xu, GuoHua Xin, Litao Jiao, Jian Liu, Shaoying Liu, Meiqi
Feng, and Xi Zheng
- Abstract要約: 筆者らは,Android の対向サンプルを作成するために,One-feature-each-iteration (OFEI) と呼ばれる新たな半ブラックボックス攻撃フレームワークを提案する。
実験の結果,OFEIは98.25%の誤分類率が高いことがわかった。
ベイズニューラルネットワークのうちの2つを用いて、敵のサンプルを検知し、99.28%の高い検出率を達成するために、組み合わせた不確実性を構築する。
- 参考スコア(独自算出の注目度): 5.2965607406809205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing popularity of Android devices, Android malware is seriously
threatening the safety of users. Although such threats can be detected by deep
learning as a service (DLaaS), deep neural networks as the weakest part of
DLaaS are often deceived by the adversarial samples elaborated by attackers. In
this paper, we propose a new semi-black-box attack framework called
one-feature-each-iteration (OFEI) to craft Android adversarial samples. This
framework modifies as few features as possible and requires less classifier
information to fool the classifier. We conduct a controlled experiment to
evaluate our OFEI framework by comparing it with the benchmark methods JSMF,
GenAttack and pointwise attack. The experimental results show that our OFEI has
a higher misclassification rate of 98.25%. Furthermore, OFEI can extend the
traditional white-box attack methods in the image field, such as fast gradient
sign method (FGSM) and DeepFool, to craft adversarial samples for Android.
Finally, to enhance the security of DLaaS, we use two uncertainties of the
Bayesian neural network to construct the combined uncertainty, which is used to
detect adversarial samples and achieves a high detection rate of 99.28%.
- Abstract(参考訳): Androidデバイスの人気が高まり、Androidのマルウェアはユーザーの安全を脅かしている。
このような脅威はディープラーニング・アズ・ア・サービス(dlaas)によって検出されるが、dlaasの最も弱い部分であるディープニューラルネットワークは、攻撃者によって詳細な敵のサンプルによってしばしば騙される。
本稿では,android の敵対的サンプルを作成するために,one-feature-each-iteration (ofei) と呼ばれる新しいセミブラックボックス攻撃フレームワークを提案する。
このフレームワークは可能な限り少数の機能を変更し、分類器を騙すために分類器情報が少ない。
我々は、JSMF、GenAttack、ポイントワイズアタックのベンチマーク手法と比較し、OFEIフレームワークを評価するための制御実験を行う。
実験の結果,OFEIの誤分類率は98.25%であった。
さらに、ofeiはfast gradient sign method(fgsm)やdeepfoolといった、従来のホワイトボックス攻撃手法を拡張して、android用の敵対的なサンプルを作成することもできる。
最後に、DLaaSの安全性を高めるために、ベイズニューラルネットワークの2つの不確実性を使用して、敵のサンプルを検出し、99.28%の高い検出率を達成する。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - Microbial Genetic Algorithm-based Black-box Attack against Interpretable
Deep Learning Systems [16.13790238416691]
ホワイトボックス環境では、解釈可能なディープラーニングシステム(IDLS)が悪意のある操作に対して脆弱であることが示されている。
本稿では,IDLSに対するクエリ効率の高いScoreベースのブラックボックス攻撃QuScoreを提案する。
論文 参考訳(メタデータ) (2023-07-13T00:08:52Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing [5.675436513661266]
クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
論文 参考訳(メタデータ) (2022-02-16T00:23:25Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。