論文の概要: Beyond the Model: Data Pre-processing Attack to Deep Learning Models in
Android Apps
- arxiv url: http://arxiv.org/abs/2305.03963v2
- Date: Thu, 11 May 2023 10:20:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 17:12:35.577059
- Title: Beyond the Model: Data Pre-processing Attack to Deep Learning Models in
Android Apps
- Title(参考訳): モデルを超えて:androidアプリのディープラーニングモデルに対するデータ前処理攻撃
- Authors: Ye Sang, Yujin Huang, Shuo Huang, Helei Cui
- Abstract要約: 実世界のディープラーニング(DL)アプリに対するデータ処理ベースの攻撃を導入する。
我々の攻撃は、DLアプリの動作に影響を与えることなく、モデルの性能とレイテンシに影響を与える可能性がある。
MLkitを利用する320のアプリのうち、81.56%が攻撃に成功していることがわかった。
- 参考スコア(独自算出の注目度): 3.2307366446033945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing popularity of deep learning (DL) models and the advantages of
computing, including low latency and bandwidth savings on smartphones, have led
to the emergence of intelligent mobile applications, also known as DL apps, in
recent years. However, this technological development has also given rise to
several security concerns, including adversarial examples, model stealing, and
data poisoning issues. Existing works on attacks and countermeasures for
on-device DL models have primarily focused on the models themselves. However,
scant attention has been paid to the impact of data processing disturbance on
the model inference. This knowledge disparity highlights the need for
additional research to fully comprehend and address security issues related to
data processing for on-device models. In this paper, we introduce a data
processing-based attacks against real-world DL apps. In particular, our attack
could influence the performance and latency of the model without affecting the
operation of a DL app. To demonstrate the effectiveness of our attack, we carry
out an empirical study on 517 real-world DL apps collected from Google Play.
Among 320 apps utilizing MLkit, we find that 81.56\% of them can be
successfully attacked.
The results emphasize the importance of DL app developers being aware of and
taking actions to secure on-device models from the perspective of data
processing.
- Abstract(参考訳): 近年、ディープラーニング(DL)モデルの人気が高まり、スマートフォンでの低レイテンシや帯域幅の節約など、コンピューティングの利点により、インテリジェントなモバイルアプリケーション(DLアプリとしても知られる)が出現している。
しかし、この技術的発展は、敵対的な例、モデル盗み、データ中毒問題など、いくつかのセキュリティ上の懸念を引き起こした。
オンデバイスdlモデルの攻撃と対策に関する既存の取り組みは、主にモデル自体に焦点を当てている。
しかし,データ処理障害がモデル推論に与える影響には注意が払われている。
この知識格差は、オンデバイスモデルのデータ処理に関するセキュリティ問題を完全に理解し、対処するための追加研究の必要性を強調している。
本稿では,実世界のDLアプリに対するデータ処理による攻撃について紹介する。
特に、我々の攻撃はDLアプリの動作に影響を与えることなく、モデルの性能とレイテンシに影響を与える可能性がある。
攻撃の有効性を示すため,Google Playから収集した実世界のDLアプリ517について実証的研究を行った。
mlkitを利用する320のアプリのうち、81.56\%がうまく攻撃できることがわかった。
その結果、データ処理の観点からデバイス上のモデルをセキュアにするために、DLアプリ開発者が認識し、アクションを取ることの重要性を強調した。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - MalModel: Hiding Malicious Payload in Mobile Deep Learning Models with Black-box Backdoor Attack [24.569156952823068]
ディープラーニングモデルのパラメータ内に悪意のあるペイロードを隠蔽することにより,モバイルマルウェアの生成や変換を行う手法を提案する。
DLモバイルアプリケーションでマルウェアを実行することは、モデルの性能にほとんど影響を与えない。
論文 参考訳(メタデータ) (2024-01-05T06:35:24Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Smart App Attack: Hacking Deep Learning Models in Android Apps [16.663345577900813]
デバイス上のモデルをハックするために、グレーボックスの逆攻撃フレームワークを導入する。
攻撃の有効性と汎用性を4つの異なる設定で評価する。
転送学習を採用した53のアプリのうち、71.7%が攻撃に成功している。
論文 参考訳(メタデータ) (2022-04-23T14:01:59Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - An Empirical Study on Deployment Faults of Deep Learning Based Mobile
Applications [7.58063287182615]
モバイルディープラーニング(DL)アプリは、大規模データを使用してトレーニングされたDLモデルとDLプログラムを統合する。
本稿では,モバイルdlアプリのデプロイ障害に関する最初の総合的研究を行う。
我々は,断層症状に関する23のカテゴリからなる微粒度分類を構築し,異なる断層タイプに対する共通修正戦略を蒸留する。
論文 参考訳(メタデータ) (2021-01-13T08:19:50Z) - Mind Your Weight(s): A Large-scale Study on Insufficient Machine
Learning Model Protection in Mobile Apps [17.421303987300902]
本稿では,モバイルデバイス上での機械学習モデル保護に関する実証的研究について述べる。
我々は米国と中国のアプリ市場から収集された46,753個の人気アプリを分析した。
驚いたことに、MLアプリの41%はモデルを完全に保護していない。
論文 参考訳(メタデータ) (2020-02-18T16:14:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。