論文の概要: MalModel: Hiding Malicious Payload in Mobile Deep Learning Models with Black-box Backdoor Attack
- arxiv url: http://arxiv.org/abs/2401.02659v1
- Date: Fri, 5 Jan 2024 06:35:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 10:39:12.007684
- Title: MalModel: Hiding Malicious Payload in Mobile Deep Learning Models with Black-box Backdoor Attack
- Title(参考訳): MalModel:ブラックボックスバックドア攻撃によるモバイルディープラーニングモデルにおける不正な支払いを回避
- Authors: Jiayi Hua, Kailong Wang, Meizhen Wang, Guangdong Bai, Xiapu Luo, Haoyu Wang,
- Abstract要約: ディープラーニングモデルのパラメータ内に悪意のあるペイロードを隠蔽することにより,モバイルマルウェアの生成や変換を行う手法を提案する。
DLモバイルアプリケーションでマルウェアを実行することは、モデルの性能にほとんど影響を与えない。
- 参考スコア(独自算出の注目度): 24.569156952823068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile malware has become one of the most critical security threats in the era of ubiquitous mobile computing. Despite the intensive efforts from security experts to counteract it, recent years have still witnessed a rapid growth of identified malware samples. This could be partly attributed to the newly-emerged technologies that may constantly open up under-studied attack surfaces for the adversaries. One typical example is the recently-developed mobile machine learning (ML) framework that enables storing and running deep learning (DL) models on mobile devices. Despite obvious advantages, this new feature also inadvertently introduces potential vulnerabilities (e.g., on-device models may be modified for malicious purposes). In this work, we propose a method to generate or transform mobile malware by hiding the malicious payloads inside the parameters of deep learning models, based on a strategy that considers four factors (layer type, layer number, layer coverage and the number of bytes to replace). Utilizing the proposed method, we can run malware in DL mobile applications covertly with little impact on the model performance (i.e., as little as 0.4% drop in accuracy and at most 39ms latency overhead).
- Abstract(参考訳): モバイルマルウェアは、ユビキタスなモバイルコンピューティングの時代において、最も重要なセキュリティ脅威の1つになっている。
セキュリティの専門家による対策努力にもかかわらず、近年は特定されたマルウェアサンプルの急速な増加を目撃している。
これは部分的には、敵に対する未調査の攻撃面を常に開き続ける、新しく導入された技術によるものかもしれない。
典型的な例として、モバイルデバイス上でのディープラーニング(DL)モデルの保存と実行を可能にする、最近開発されたモバイル機械学習(ML)フレームワークがある。
明らかなアドバンテージにもかかわらず、この新機能は必然的に潜在的な脆弱性も導入する(例えば、デバイス上のモデルは悪意のある目的のために修正される可能性がある)。
本研究では,4つの要因(層型,層数,層被覆率,置換するバイト数)を考慮に入れた戦略に基づいて,悪意のあるペイロードをディープラーニングモデルのパラメータ内に隠蔽することにより,モバイルマルウェアを生成・変換する手法を提案する。
提案手法を用いることで、モデル性能にほとんど影響を与えずにDLモバイルアプリケーションでマルウェアを実行することができる(0.4%の精度低下と39msの遅延オーバーヘッド)。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Beyond the Model: Data Pre-processing Attack to Deep Learning Models in
Android Apps [3.2307366446033945]
実世界のディープラーニング(DL)アプリに対するデータ処理ベースの攻撃を導入する。
我々の攻撃は、DLアプリの動作に影響を与えることなく、モデルの性能とレイテンシに影響を与える可能性がある。
MLkitを利用する320のアプリのうち、81.56%が攻撃に成功していることがわかった。
論文 参考訳(メタデータ) (2023-05-06T07:35:39Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Smart App Attack: Hacking Deep Learning Models in Android Apps [16.663345577900813]
デバイス上のモデルをハックするために、グレーボックスの逆攻撃フレームワークを導入する。
攻撃の有効性と汎用性を4つの異なる設定で評価する。
転送学習を採用した53のアプリのうち、71.7%が攻撃に成功している。
論文 参考訳(メタデータ) (2022-04-23T14:01:59Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - DeepPayload: Black-box Backdoor Attack on Deep Learning Models through
Neural Payload Injection [17.136757440204722]
我々は,コンパイルされたディープラーニングモデルに対して,リバースエンジニアリング技術を用いて,極めて実用的なバックドアアタックを導入する。
注入されたバックドアは93.5%の成功率で起動できるが、遅延オーバーヘッドは2ms以下で精度は1.4%以下である。
人気アプリやセキュリティクリティカルアプリなど、攻撃に対して脆弱な54のアプリが見つかりました。
論文 参考訳(メタデータ) (2021-01-18T06:29:30Z) - Binary Black-box Evasion Attacks Against Deep Learning-based Static
Malware Detectors with Adversarial Byte-Level Language Model [11.701290164823142]
MalRNNは、制限なく回避可能なマルウェアバリアントを自動的に生成する新しいアプローチです。
MalRNNは、3つの最近のディープラーニングベースのマルウェア検出器を効果的に回避し、現在のベンチマークメソッドを上回ります。
論文 参考訳(メタデータ) (2020-12-14T22:54:53Z) - Mind Your Weight(s): A Large-scale Study on Insufficient Machine
Learning Model Protection in Mobile Apps [17.421303987300902]
本稿では,モバイルデバイス上での機械学習モデル保護に関する実証的研究について述べる。
我々は米国と中国のアプリ市場から収集された46,753個の人気アプリを分析した。
驚いたことに、MLアプリの41%はモデルを完全に保護していない。
論文 参考訳(メタデータ) (2020-02-18T16:14:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。