論文の概要: Mind Your Weight(s): A Large-scale Study on Insufficient Machine
Learning Model Protection in Mobile Apps
- arxiv url: http://arxiv.org/abs/2002.07687v2
- Date: Mon, 14 Jun 2021 22:35:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 20:45:53.899092
- Title: Mind Your Weight(s): A Large-scale Study on Insufficient Machine
Learning Model Protection in Mobile Apps
- Title(参考訳): mind your weight(s):モバイルアプリにおける機械学習モデルの保護不足に関する大規模研究
- Authors: Zhichuang Sun, Ruimin Sun, Long Lu, Alan Mislove
- Abstract要約: 本稿では,モバイルデバイス上での機械学習モデル保護に関する実証的研究について述べる。
我々は米国と中国のアプリ市場から収集された46,753個の人気アプリを分析した。
驚いたことに、MLアプリの41%はモデルを完全に保護していない。
- 参考スコア(独自算出の注目度): 17.421303987300902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-device machine learning (ML) is quickly gaining popularity among mobile
apps. It allows offline model inference while preserving user privacy. However,
ML models, considered as core intellectual properties of model owners, are now
stored on billions of untrusted devices and subject to potential thefts. Leaked
models can cause both severe financial loss and security consequences. This
paper presents the first empirical study of ML model protection on mobile
devices. Our study aims to answer three open questions with quantitative
evidence: How widely is model protection used in apps? How robust are existing
model protection techniques? What impacts can (stolen) models incur? To that
end, we built a simple app analysis pipeline and analyzed 46,753 popular apps
collected from the US and Chinese app markets. We identified 1,468 ML apps
spanning all popular app categories. We found that, alarmingly, 41% of ML apps
do not protect their models at all, which can be trivially stolen from app
packages. Even for those apps that use model protection or encryption, we were
able to extract the models from 66% of them via unsophisticated dynamic
analysis techniques. The extracted models are mostly commercial products and
used for face recognition, liveness detection, ID/bank card recognition, and
malware detection. We quantitatively estimated the potential financial and
security impact of a leaked model, which can amount to millions of dollars for
different stakeholders. Our study reveals that on-device models are currently
at high risk of being leaked; attackers are highly motivated to steal such
models. Drawn from our large-scale study, we report our insights into this
emerging security problem and discuss the technical challenges, hoping to
inspire future research on robust and practical model protection for mobile
devices.
- Abstract(参考訳): オンデバイス機械学習(ML)はモバイルアプリで急速に人気を集めている。
ユーザのプライバシを保護しながら、オフラインモデル推論を可能にする。
しかし、モデル所有者のコア知的特性と見なされるMLモデルは、今や数十億の信頼できないデバイスに保管され、潜在的な盗難の対象となっている。
リークされたモデルは、財政的損失とセキュリティ上の影響の両方を引き起こす可能性がある。
本稿では,モバイルデバイス上でのmlモデル保護に関する最初の実証研究を行う。
私たちの研究は、3つのオープン質問に定量的な証拠で答えることを目的としています。
既存のモデル保護技術はどの程度堅牢か?
モデルにはどんな影響がありますか?
その目的のために、シンプルなアプリ分析パイプラインを構築し、米国と中国のアプリマーケットから収集された46,753の人気アプリを分析しました。
人気アプリのカテゴリにまたがる1,468 mlアプリを特定した。
驚くべきことに、mlアプリの41%がモデルを完全に保護していないことがわかりました。
モデル保護や暗号化を使用しているアプリであっても,その66%から,非洗練な動的解析技術を使ってモデルを抽出できたのです。
抽出されたモデルは、主に商用製品であり、顔認識、ライブ検出、ID/バンクカード認識、マルウェア検出に使用される。
我々は、リークされたモデルによる潜在的金融とセキュリティの影響を定量的に見積もった。
我々の研究によると、デバイス上のモデルは現在リークされるリスクが高く、攻撃者はそのようなモデルを盗む動機が高い。
本研究は,この新たなセキュリティ問題に対する考察を報告し,モバイル機器のロバストかつ実用的なモデル保護に関する今後の研究に刺激を与えることを期待して,技術的な課題について議論する。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - MalModel: Hiding Malicious Payload in Mobile Deep Learning Models with Black-box Backdoor Attack [24.569156952823068]
ディープラーニングモデルのパラメータ内に悪意のあるペイロードを隠蔽することにより,モバイルマルウェアの生成や変換を行う手法を提案する。
DLモバイルアプリケーションでマルウェアを実行することは、モデルの性能にほとんど影響を与えない。
論文 参考訳(メタデータ) (2024-01-05T06:35:24Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Beyond the Model: Data Pre-processing Attack to Deep Learning Models in
Android Apps [3.2307366446033945]
実世界のディープラーニング(DL)アプリに対するデータ処理ベースの攻撃を導入する。
我々の攻撃は、DLアプリの動作に影響を与えることなく、モデルの性能とレイテンシに影響を与える可能性がある。
MLkitを利用する320のアプリのうち、81.56%が攻撃に成功していることがわかった。
論文 参考訳(メタデータ) (2023-05-06T07:35:39Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。