論文の概要: Poster: Sponge ML Model Attacks of Mobile Apps
- arxiv url: http://arxiv.org/abs/2303.01243v1
- Date: Wed, 1 Mar 2023 15:12:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 14:19:41.989734
- Title: Poster: Sponge ML Model Attacks of Mobile Apps
- Title(参考訳): Poster: モバイルアプリのスポンジMLモデル攻撃
- Authors: Souvik Paul and Nicolas Kourtellis
- Abstract要約: 本研究では,最近提案されたスポンジ攻撃に焦点を当てる。
MLモデルの推論(トレーニングではない)を実行しながら消費されるエネルギーを吸い上げるように設計されている。
本研究は,モバイル環境におけるこの攻撃を初めて調査し,モバイル端末上で動作しているMLモデルに与える影響を計測する。
- 参考スコア(独自算出の注目度): 3.299672391663527
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine Learning (ML)-powered apps are used in pervasive devices such as
phones, tablets, smartwatches and IoT devices. Recent advances in
collaborative, distributed ML such as Federated Learning (FL) attempt to solve
privacy concerns of users and data owners, and thus used by tech industry
leaders such as Google, Facebook and Apple. However, FL systems and models are
still vulnerable to adversarial membership and attribute inferences and model
poisoning attacks, especially in FL-as-a-Service ecosystems recently proposed,
which can enable attackers to access multiple ML-powered apps. In this work, we
focus on the recently proposed Sponge attack: It is designed to soak up energy
consumed while executing inference (not training) of ML model, without
hampering the classifier's performance. Recent work has shown sponge attacks on
ASCI-enabled GPUs can potentially escalate the power consumption and inference
time. For the first time, in this work, we investigate this attack in the
mobile setting and measure the effect it can have on ML models running inside
apps on mobile devices.
- Abstract(参考訳): 機械学習(ML)を利用したアプリは、携帯電話、タブレット、スマートウォッチ、IoTデバイスなどの普及したデバイスで使用されている。
フェデレートラーニング(FL)のような協調型分散MLの最近の進歩は、ユーザとデータ所有者のプライバシー上の懸念を解決し、Google、Facebook、AppleといったIT業界のリーダーが使用している。
しかし、flシステムとモデルは相反するメンバシップや属性推論、モデル中毒攻撃に対して脆弱であり、特に最近提案されたfl-as-a-serviceエコシステムでは、攻撃者が複数のmlベースのアプリにアクセスできる。
本稿では,最近提案されたsponge攻撃に着目し,mlモデルの推論(トレーニングではなく)中に消費されるエネルギーを,分類器の性能を損なうことなく吸い上げるように設計する。
最近の研究によると、ASCI対応GPUに対するスポンジ攻撃は、電力消費と推論時間を増大させる可能性がある。
今回,本研究では,モバイル環境におけるこの攻撃を初めて調査し,モバイル端末上のアプリ内で動作するmlモデルへの影響を計測する。
関連論文リスト
- SODA: Protecting Proprietary Information in On-Device Machine Learning
Models [5.352699766206808]
本稿では,エンド・ツー・エンドのフレームワークであるSODAを提案し,エッジデバイス上でのデプロイとサービスを行う。
以上の結果から,サービス性能,レイテンシ,ストレージへの影響を最小限に抑えつつ,50クエリ未満で89%の精度で,敵対的使用量を検出できることが示唆された。
論文 参考訳(メタデータ) (2023-12-22T20:04:36Z) - SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Federated Split GANs [12.007429155505767]
ユーザデバイス自体でMLモデルをトレーニングするための代替手法を提案する。
我々は、GAN(ジェネレーティブ・逆境ネットワーク)に注目し、その固有のプライバシー保護属性を活用する。
我々のシステムはデータのプライバシを保ち、短時間のトレーニング時間を保ち、制約のないデバイスで同じ精度でモデルトレーニングを行う。
論文 参考訳(メタデータ) (2022-07-04T23:53:47Z) - Smart App Attack: Hacking Deep Learning Models in Android Apps [16.663345577900813]
デバイス上のモデルをハックするために、グレーボックスの逆攻撃フレームワークを導入する。
攻撃の有効性と汎用性を4つの異なる設定で評価する。
転送学習を採用した53のアプリのうち、71.7%が攻撃に成功している。
論文 参考訳(メタデータ) (2022-04-23T14:01:59Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - Federated Learning-based Active Authentication on Mobile Devices [98.23904302910022]
モバイルデバイス上のユーザアクティブ認証は、デバイスセンサ情報に基づいて登録ユーザを正しく認識できるモデルを学ぶことを目的としている。
Federated Active Authentication (FAA) と呼ばれる新しいユーザーアクティブ認証トレーニングを提案します。
既存のFL/SL法は,同質に分散するデータに依存するため,FAAにとって最適ではないことを示す。
論文 参考訳(メタデータ) (2021-04-14T22:59:08Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Mind Your Weight(s): A Large-scale Study on Insufficient Machine
Learning Model Protection in Mobile Apps [17.421303987300902]
本稿では,モバイルデバイス上での機械学習モデル保護に関する実証的研究について述べる。
我々は米国と中国のアプリ市場から収集された46,753個の人気アプリを分析した。
驚いたことに、MLアプリの41%はモデルを完全に保護していない。
論文 参考訳(メタデータ) (2020-02-18T16:14:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。