論文の概要: SODA: Protecting Proprietary Information in On-Device Machine Learning
Models
- arxiv url: http://arxiv.org/abs/2312.15036v1
- Date: Fri, 22 Dec 2023 20:04:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 20:12:05.218661
- Title: SODA: Protecting Proprietary Information in On-Device Machine Learning
Models
- Title(参考訳): SODA:オンデバイス機械学習モデルにおけるプライオリティ情報保護
- Authors: Akanksha Atrey, Ritwik Sinha, Saayan Mitra, Prashant Shenoy
- Abstract要約: 本稿では,エンド・ツー・エンドのフレームワークであるSODAを提案し,エッジデバイス上でのデプロイとサービスを行う。
以上の結果から,サービス性能,レイテンシ,ストレージへの影響を最小限に抑えつつ,50クエリ未満で89%の精度で,敵対的使用量を検出できることが示唆された。
- 参考スコア(独自算出の注目度): 5.352699766206808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growth of low-end hardware has led to a proliferation of machine
learning-based services in edge applications. These applications gather
contextual information about users and provide some services, such as
personalized offers, through a machine learning (ML) model. A growing practice
has been to deploy such ML models on the user's device to reduce latency,
maintain user privacy, and minimize continuous reliance on a centralized
source. However, deploying ML models on the user's edge device can leak
proprietary information about the service provider. In this work, we
investigate on-device ML models that are used to provide mobile services and
demonstrate how simple attacks can leak proprietary information of the service
provider. We show that different adversaries can easily exploit such models to
maximize their profit and accomplish content theft. Motivated by the need to
thwart such attacks, we present an end-to-end framework, SODA, for deploying
and serving on edge devices while defending against adversarial usage. Our
results demonstrate that SODA can detect adversarial usage with 89% accuracy in
less than 50 queries with minimal impact on service performance, latency, and
storage.
- Abstract(参考訳): ローエンドハードウェアの成長は、エッジアプリケーションにおける機械学習ベースのサービスの増加につながった。
これらのアプリケーションはユーザに関するコンテキスト情報を収集し、マシンラーニング(ML)モデルを通じてパーソナライズされたオファーなどのサービスを提供する。
このようなMLモデルをユーザのデバイスにデプロイすることで、レイテンシの低減、ユーザのプライバシの維持、集中的なソースへの継続的依存の最小化を実現している。
しかし、ユーザのエッジデバイスにMLモデルをデプロイすると、サービスプロバイダに関するプロプライエタリな情報が漏洩する可能性がある。
本研究では,モバイルサービス提供に使用されるオンデバイスMLモデルについて検討し,簡単な攻撃がサービスプロバイダのプロプライエタリな情報を漏洩させる可能性を実証する。
異なる敵が容易にこのようなモデルを利用して利益を最大化し、コンテンツ盗難を達成できることを示す。
このような攻撃を阻止する必要性に感銘を受け、敵の攻撃を防ぎながらエッジデバイス上でのデプロイとサービスを行うためのエンドツーエンドフレームワークであるSODAを提示する。
以上の結果から,サービス性能,レイテンシ,ストレージへの影響を最小限に抑えつつ,50クエリ未満で89%の精度で敵使用を検出できることが示唆された。
関連論文リスト
- MobileAIBench: Benchmarking LLMs and LMMs for On-Device Use Cases [81.70591346986582]
モバイル端末上でのLarge Language Models(LLM)とLarge Multimodal Models(LMM)を評価するためのベンチマークフレームワークであるMobileAIBenchを紹介する。
MobileAIBenchは、さまざまなサイズ、量子化レベル、タスクにわたるモデルを評価し、実際のデバイス上でのレイテンシとリソース消費を測定する。
論文 参考訳(メタデータ) (2024-06-12T22:58:12Z) - Poster: Sponge ML Model Attacks of Mobile Apps [3.299672391663527]
本研究では,最近提案されたスポンジ攻撃に焦点を当てる。
MLモデルの推論(トレーニングではない)を実行しながら消費されるエネルギーを吸い上げるように設計されている。
本研究は,モバイル環境におけるこの攻撃を初めて調査し,モバイル端末上で動作しているMLモデルに与える影響を計測する。
論文 参考訳(メタデータ) (2023-03-01T15:12:56Z) - Adversarial attacks and defenses on ML- and hardware-based IoT device
fingerprinting and identification [0.0]
本研究では,個々のデバイス識別のためのハードウェア性能挙動に基づくLSTM-CNNアーキテクチャを提案する。
これまでは、45台のRaspberry Piデバイスから収集されたハードウェアパフォーマンスデータセットを使用して、提案されたアーキテクチャと比較されてきた。
回避攻撃に対するモデルレジリエンスを改善するために 敵の訓練と モデル蒸留防衛技術が選択される。
論文 参考訳(メタデータ) (2022-12-30T13:11:35Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - On the Evaluation of User Privacy in Deep Neural Networks using Timing
Side Channel [14.350301915592027]
我々は,Deep Learning (DL) の実装において,新たなデータ依存型タイミング側チャネルリーク(クラスリーク)を特定し,報告する。
ユーザ特権とハードラベルのブラックボックスアクセスを持つ敵が、クラスリークを悪用できる、実用的な推論時攻撃を実証する。
我々は,クラスリークを緩和する定時分岐操作を行うことにより,実装が容易な対策を開発する。
論文 参考訳(メタデータ) (2022-08-01T19:38:16Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Federated Split GANs [12.007429155505767]
ユーザデバイス自体でMLモデルをトレーニングするための代替手法を提案する。
我々は、GAN(ジェネレーティブ・逆境ネットワーク)に注目し、その固有のプライバシー保護属性を活用する。
我々のシステムはデータのプライバシを保ち、短時間のトレーニング時間を保ち、制約のないデバイスで同じ精度でモデルトレーニングを行う。
論文 参考訳(メタデータ) (2022-07-04T23:53:47Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Survey: Leakage and Privacy at Inference Time [59.957056214792665]
公開されている機械学習(ML)モデルからのデータの漏洩は、ますます重要になっている分野である。
公開モデルの最も可能性の高いシナリオとして、推論時のリークに注目します。
本稿では,不随意・不随意の漏洩,防御,そして現在利用可能な評価指標と応用にまたがる分類法を提案する。
論文 参考訳(メタデータ) (2021-07-04T12:59:16Z) - Federated Learning-based Active Authentication on Mobile Devices [98.23904302910022]
モバイルデバイス上のユーザアクティブ認証は、デバイスセンサ情報に基づいて登録ユーザを正しく認識できるモデルを学ぶことを目的としている。
Federated Active Authentication (FAA) と呼ばれる新しいユーザーアクティブ認証トレーニングを提案します。
既存のFL/SL法は,同質に分散するデータに依存するため,FAAにとって最適ではないことを示す。
論文 参考訳(メタデータ) (2021-04-14T22:59:08Z) - MDLdroid: a ChainSGD-reduce Approach to Mobile Deep Learning for
Personal Mobile Sensing [14.574274428615666]
デバイス上でのディープラーニングの実行には、データのプライバシ保護や、モデルの堅牢性とアップデートの両方に対する低レイテンシ応答など、いくつかのメリットがある。
パーソナルモバイルセンシングアプリケーションは、主にユーザ固有であり、環境の影響を受けやすい。
我々は,デバイス上での協調学習を実現するために,新たな分散モバイルディープラーニングフレームワークであるMDLdroidを提案する。
論文 参考訳(メタデータ) (2020-02-07T16:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。