論文の概要: Poster: Sponge ML Model Attacks of Mobile Apps
- arxiv url: http://arxiv.org/abs/2303.01243v1
- Date: Wed, 1 Mar 2023 15:12:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 14:19:41.989734
- Title: Poster: Sponge ML Model Attacks of Mobile Apps
- Title(参考訳): Poster: モバイルアプリのスポンジMLモデル攻撃
- Authors: Souvik Paul and Nicolas Kourtellis
- Abstract要約: 本研究では,最近提案されたスポンジ攻撃に焦点を当てる。
MLモデルの推論(トレーニングではない)を実行しながら消費されるエネルギーを吸い上げるように設計されている。
本研究は,モバイル環境におけるこの攻撃を初めて調査し,モバイル端末上で動作しているMLモデルに与える影響を計測する。
- 参考スコア(独自算出の注目度): 3.299672391663527
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine Learning (ML)-powered apps are used in pervasive devices such as
phones, tablets, smartwatches and IoT devices. Recent advances in
collaborative, distributed ML such as Federated Learning (FL) attempt to solve
privacy concerns of users and data owners, and thus used by tech industry
leaders such as Google, Facebook and Apple. However, FL systems and models are
still vulnerable to adversarial membership and attribute inferences and model
poisoning attacks, especially in FL-as-a-Service ecosystems recently proposed,
which can enable attackers to access multiple ML-powered apps. In this work, we
focus on the recently proposed Sponge attack: It is designed to soak up energy
consumed while executing inference (not training) of ML model, without
hampering the classifier's performance. Recent work has shown sponge attacks on
ASCI-enabled GPUs can potentially escalate the power consumption and inference
time. For the first time, in this work, we investigate this attack in the
mobile setting and measure the effect it can have on ML models running inside
apps on mobile devices.
- Abstract(参考訳): 機械学習(ML)を利用したアプリは、携帯電話、タブレット、スマートウォッチ、IoTデバイスなどの普及したデバイスで使用されている。
フェデレートラーニング(FL)のような協調型分散MLの最近の進歩は、ユーザとデータ所有者のプライバシー上の懸念を解決し、Google、Facebook、AppleといったIT業界のリーダーが使用している。
しかし、flシステムとモデルは相反するメンバシップや属性推論、モデル中毒攻撃に対して脆弱であり、特に最近提案されたfl-as-a-serviceエコシステムでは、攻撃者が複数のmlベースのアプリにアクセスできる。
本稿では,最近提案されたsponge攻撃に着目し,mlモデルの推論(トレーニングではなく)中に消費されるエネルギーを,分類器の性能を損なうことなく吸い上げるように設計する。
最近の研究によると、ASCI対応GPUに対するスポンジ攻撃は、電力消費と推論時間を増大させる可能性がある。
今回,本研究では,モバイル環境におけるこの攻撃を初めて調査し,モバイル端末上のアプリ内で動作するmlモデルへの影響を計測する。
関連論文リスト
- MobileAIBench: Benchmarking LLMs and LMMs for On-Device Use Cases [81.70591346986582]
モバイル端末上でのLarge Language Models(LLM)とLarge Multimodal Models(LMM)を評価するためのベンチマークフレームワークであるMobileAIBenchを紹介する。
MobileAIBenchは、さまざまなサイズ、量子化レベル、タスクにわたるモデルを評価し、実際のデバイス上でのレイテンシとリソース消費を測定する。
論文 参考訳(メタデータ) (2024-06-12T22:58:12Z) - MalModel: Hiding Malicious Payload in Mobile Deep Learning Models with Black-box Backdoor Attack [24.569156952823068]
ディープラーニングモデルのパラメータ内に悪意のあるペイロードを隠蔽することにより,モバイルマルウェアの生成や変換を行う手法を提案する。
DLモバイルアプリケーションでマルウェアを実行することは、モデルの性能にほとんど影響を与えない。
論文 参考訳(メタデータ) (2024-01-05T06:35:24Z) - SODA: Protecting Proprietary Information in On-Device Machine Learning
Models [5.352699766206808]
本稿では,エンド・ツー・エンドのフレームワークであるSODAを提案し,エッジデバイス上でのデプロイとサービスを行う。
以上の結果から,サービス性能,レイテンシ,ストレージへの影響を最小限に抑えつつ,50クエリ未満で89%の精度で,敵対的使用量を検出できることが示唆された。
論文 参考訳(メタデータ) (2023-12-22T20:04:36Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Federated Split GANs [12.007429155505767]
ユーザデバイス自体でMLモデルをトレーニングするための代替手法を提案する。
我々は、GAN(ジェネレーティブ・逆境ネットワーク)に注目し、その固有のプライバシー保護属性を活用する。
我々のシステムはデータのプライバシを保ち、短時間のトレーニング時間を保ち、制約のないデバイスで同じ精度でモデルトレーニングを行う。
論文 参考訳(メタデータ) (2022-07-04T23:53:47Z) - Smart App Attack: Hacking Deep Learning Models in Android Apps [16.663345577900813]
デバイス上のモデルをハックするために、グレーボックスの逆攻撃フレームワークを導入する。
攻撃の有効性と汎用性を4つの異なる設定で評価する。
転送学習を採用した53のアプリのうち、71.7%が攻撃に成功している。
論文 参考訳(メタデータ) (2022-04-23T14:01:59Z) - Federated Learning-based Active Authentication on Mobile Devices [98.23904302910022]
モバイルデバイス上のユーザアクティブ認証は、デバイスセンサ情報に基づいて登録ユーザを正しく認識できるモデルを学ぶことを目的としている。
Federated Active Authentication (FAA) と呼ばれる新しいユーザーアクティブ認証トレーニングを提案します。
既存のFL/SL法は,同質に分散するデータに依存するため,FAAにとって最適ではないことを示す。
論文 参考訳(メタデータ) (2021-04-14T22:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。