論文の概要: ShadowNet: A Secure and Efficient System for On-device Model Inference
- arxiv url: http://arxiv.org/abs/2011.05905v2
- Date: Mon, 14 Jun 2021 18:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:59:28.955620
- Title: ShadowNet: A Secure and Efficient System for On-device Model Inference
- Title(参考訳): ShadowNet:オンデバイスモデル推論のためのセキュアで効率的なシステム
- Authors: Zhichuang Sun, Ruimin Sun, Changming Liu, Amrita Roy Chowdhury, Somesh
Jha, Long Lu
- Abstract要約: ShadowNetはデバイス上の新しいモデル推論システムである。
モデルの重い線形層を信頼できないハードウェアアクセラレータに安全にアウトソーシングしながら、モデルのプライバシを保護する。
評価の結果,ShadowNetは高いセキュリティ保証を合理的な性能で達成していることがわかった。
- 参考スコア(独自算出の注目度): 33.98338559074557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increased usage of AI accelerators on mobile and edge devices,
on-device machine learning (ML) is gaining popularity. Consequently, thousands
of proprietary ML models are being deployed on billions of untrusted devices.
This raises serious security concerns about model privacy. However, protecting
the model privacy without losing access to the AI accelerators is a challenging
problem. In this paper, we present a novel on-device model inference system,
ShadowNet. ShadowNet protects the model privacy with Trusted Execution
Environment (TEE) while securely outsourcing the heavy linear layers of the
model to the untrusted hardware accelerators. ShadowNet achieves this by
transforming the weights of the linear layers before outsourcing them and
restoring the results inside the TEE. The nonlinear layers are also kept secure
inside the TEE. The transformation of the weights and the restoration of the
results are designed in a way that can be implemented efficiently. We have
built a ShadowNet prototype based on TensorFlow Lite and applied it on four
popular CNNs, namely, MobileNets, ResNet-44, AlexNet and MiniVGG. Our
evaluation shows that ShadowNet achieves strong security guarantees with
reasonable performance, offering a practical solution for secure on-device
model inference.
- Abstract(参考訳): モバイルとエッジデバイスにおけるAIアクセラレータの使用が増加し、オンデバイス機械学習(ML)が人気を集めている。
その結果、何千ものプロプライエタリなMLモデルが、何十億もの信頼できないデバイスにデプロイされている。
これはモデルプライバシに関する深刻なセキュリティ上の懸念を引き起こす。
しかし、AIアクセラレーターへのアクセスを失うことなくモデルのプライバシを保護することは難しい問題である。
本稿では,デバイス上での新たなモデル推論システムであるShadowNetを提案する。
shadownetはモデルプライバシをtrusted execution environment(tee)で保護するとともに、モデルの重線形層を信頼できないハードウェアアクセラレータに安全にアウトソーシングする。
ShadowNetは、アウトソーシングする前にリニアレイヤの重みを変換し、TEE内の結果を復元することで、これを実現する。
非線形層は、TEE内でも安全である。
重みの変換と結果の復元は効率的に実施可能な方法で設計されている。
私たちはTensorFlow LiteをベースとしたShadowNetのプロトタイプを開発し、人気のあるCNNであるMobileNets、ResNet-44、AlexNet、MiniVGGの4つに適用しました。
評価の結果,ShadowNetは適切な性能で強力なセキュリティ保証を実現し,デバイス上での安全なモデル推論のための実用的なソリューションを提供する。
関連論文リスト
- No Privacy Left Outside: On the (In-)Security of TEE-Shielded DNN
Partition for On-Device ML [28.392497220631032]
既存のTSDPソリューションは、プライバシスティーリング攻撃に対して脆弱であり、一般的に信じられているほど安全ではないことを示す。
DNN推論中にMSとMIAを防御する新しいTSDP法TEESliceを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:54:52Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - Partially Oblivious Neural Network Inference [4.843820624525483]
CNNのようなニューラルネットワークモデルでは、いくつかの情報漏洩が許容可能であることを示す。
我々は,CIFAR-10ネットワークにおいて,モデル重量の最大80%を,事実上のセキュリティ上の影響なく漏洩させることができることを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-27T05:39:36Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - Self-Repairing Neural Networks: Provable Safety for Deep Networks via
Dynamic Repair [16.208330991060976]
本稿では,非リレーショナル安全性制約の違反を動的に修復するニューラルネットワーク分類器を構築する方法を提案する。
我々のアプローチは、確実に安全な出力が得られる新しい自己修復層に基づいている。
提案手法は,GPU上で効率的に実行されるベクトル化計算を用いて実装可能であることを示す。
論文 参考訳(メタデータ) (2021-07-23T20:08:52Z) - A Joint Energy and Latency Framework for Transfer Learning over 5G
Industrial Edge Networks [53.26338041079138]
5G産業エッジネットワークのための転送学習対応エッジCNNフレームワークを提案する。
特に、エッジサーバは、既存の画像データセットを使用してcnnを事前トレーニングすることができる。
TLの助けを借りて、トレーニングに参加していないデバイスは、訓練されたエッジCNNモデルをスクラッチからトレーニングせずに微調整するだけです。
論文 参考訳(メタデータ) (2021-04-19T15:13:16Z) - Making DensePose fast and light [78.49552144907513]
このタスクを解くことができる既存のニューラルネットワークモデルは、非常にパラメータ化されている。
現在のモデルで端末のDense Pose推論を有効にするには、高価なサーバーサイドのインフラをサポートし、安定したインターネット接続が必要である。
本研究では,DensePose R-CNNモデルのアーキテクチャを再設計することで,最終的なネットワークがその精度の大部分を維持しつつ,より軽量で高速なネットワークを実現することを目的とする。
論文 参考訳(メタデータ) (2020-06-26T19:42:20Z) - DarkneTZ: Towards Model Privacy at the Edge using Trusted Execution
Environments [37.84943219784536]
我々は、エッジデバイスのTrusted Execution Environment(TEE)を使用して、ディープニューラルネットワーク(DNN)に対する攻撃面を制限するフレームワークであるDarkneTZを紹介する。
我々は、CPU実行時間、メモリ使用量、正確な消費電力を含むDarkneTZの性能を評価する。
結果から,単一のレイヤが隠されている場合でも,信頼性の高いモデルプライバシを提供し,技術MIAの状態を防御することが可能になる。
論文 参考訳(メタデータ) (2020-04-12T21:42:03Z) - Automatic Perturbation Analysis for Scalable Certified Robustness and
Beyond [171.07853346630057]
ニューラルネットワークに対する線形緩和に基づく摂動解析(LiRPA)は、堅牢性検証と認証防御のコアコンポーネントとなっている。
我々は任意のニューラルネットワーク構造上で摂動解析を可能にするための自動フレームワークを開発する。
我々は、Tiny ImageNetとDownscaled ImageNetのLiRPAベースの認証防御を実証する。
論文 参考訳(メタデータ) (2020-02-28T18:47:43Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。