論文の概要: MirrorNet: A TEE-Friendly Framework for Secure On-device DNN Inference
- arxiv url: http://arxiv.org/abs/2311.09489v1
- Date: Thu, 16 Nov 2023 01:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 23:12:35.491251
- Title: MirrorNet: A TEE-Friendly Framework for Secure On-device DNN Inference
- Title(参考訳): MirrorNet: デバイス上でセキュアなDNN推論のためのTEEフレンドリーなフレームワーク
- Authors: Ziyu Liu, Yukui Luo, Shijin Duan, Tong Zhou, Xiaolin Xu,
- Abstract要約: ディープニューラルネットワーク(DNN)モデルは、リアルタイム推論のためのエッジデバイスで普及している。
既存の防御アプローチでは、モデルの機密性を完全に保護できないか、あるいは重大なレイテンシの問題が発生する。
本稿では、モデル機密性を保護するため、任意のDNNモデルに対してTEEフレンドリーな実装を生成するMirrorNetを提案する。
評価のために、MirrorNetは認証と違法使用の間に18.6%の精度差を達成でき、ハードウェアオーバーヘッドは0.99%に過ぎなかった。
- 参考スコア(独自算出の注目度): 14.08010398777227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network (DNN) models have become prevalent in edge devices for real-time inference. However, they are vulnerable to model extraction attacks and require protection. Existing defense approaches either fail to fully safeguard model confidentiality or result in significant latency issues. To overcome these challenges, this paper presents MirrorNet, which leverages Trusted Execution Environment (TEE) to enable secure on-device DNN inference. It generates a TEE-friendly implementation for any given DNN model to protect the model confidentiality, while meeting the stringent computation and storage constraints of TEE. The framework consists of two key components: the backbone model (BackboneNet), which is stored in the normal world but achieves lower inference accuracy, and the Companion Partial Monitor (CPM), a lightweight mirrored branch stored in the secure world, preserving model confidentiality. During inference, the CPM monitors the intermediate results from the BackboneNet and rectifies the classification output to achieve higher accuracy. To enhance flexibility, MirrorNet incorporates two modules: the CPM Strategy Generator, which generates various protection strategies, and the Performance Emulator, which estimates the performance of each strategy and selects the most optimal one. Extensive experiments demonstrate the effectiveness of MirrorNet in providing security guarantees while maintaining low computation latency, making MirrorNet a practical and promising solution for secure on-device DNN inference. For the evaluation, MirrorNet can achieve a 18.6% accuracy gap between authenticated and illegal use, while only introducing 0.99% hardware overhead.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)モデルは、リアルタイム推論のためのエッジデバイスで普及している。
しかし、それらはモデル抽出攻撃に対して脆弱であり、保護を必要とする。
既存の防御アプローチでは、モデルの機密性を完全に保護できないか、あるいは重大なレイテンシの問題が発生する。
これらの課題を克服するために,Trusted Execution Environment(TEE)を活用してデバイス上でセキュアなDNN推論を実現するMirrorNetを提案する。
任意のDNNモデルのTEEフレンドリな実装を生成し、TEEの厳密な計算とストレージ制約を満たしながら、モデルの機密性を保護する。
フレームワークは2つの重要なコンポーネントで構成されている。バックボーンモデル(BackboneNet)は通常の世界で保存されるが、推論精度は低い。
推論中、CPMはBackboneNetから中間結果を監視し、分類出力を修正してより高い精度を達成する。
柔軟性を高めるためにMirrorNetは、さまざまな保護戦略を生成するCPM Strategy Generatorと、各戦略のパフォーマンスを見積り、最も最適なものを選択するPerformance Emulatorという2つのモジュールを組み込んでいる。
大規模な実験では、MirrorNetが低い計算レイテンシを維持しながらセキュリティ保証を提供することで、デバイス上でセキュアなDNN推論のための実用的で有望なソリューションであることを実証している。
評価のために、MirrorNetは認証と違法使用の間に18.6%の精度差を達成でき、ハードウェアオーバーヘッドは0.99%に過ぎなかった。
関連論文リスト
- SLIP: Securing LLMs IP Using Weights Decomposition [0.0]
大規模言語モデル(LLM)は、最近、アカデミックと産業の両方で広く採用されている。
これらのモデルが成長するにつれて、彼らは価値ある知的財産権(IP)となり、所有者による巨額の投資を反映している。
エッジ上のモデルのIPを保護する現在の方法は、実用性、精度の低下、要求に対する適合性の制限がある。
我々は,エッジデデプロイされたモデルを盗難から保護するために,SLIPという新しいハイブリッド推論アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-07-15T16:37:55Z) - Digital Twin-Assisted Data-Driven Optimization for Reliable Edge Caching in Wireless Networks [60.54852710216738]
我々はD-RECと呼ばれる新しいデジタルツインアシスト最適化フレームワークを導入し、次世代無線ネットワークにおける信頼性の高いキャッシュを実現する。
信頼性モジュールを制約付き決定プロセスに組み込むことで、D-RECは、有利な制約に従うために、アクション、報酬、状態を適応的に調整することができる。
論文 参考訳(メタデータ) (2024-06-29T02:40:28Z) - Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - TBNet: A Neural Architectural Defense Framework Facilitating DNN Model Protection in Trusted Execution Environments [14.074570784425225]
本稿では,DNNモデルをニューラルネットワークの観点から保護するTEEベースの防衛フレームワークTBNetを提案する。
多様なDNNモデルアーキテクチャとデータセットにわたるRaspberry Piの実験結果は、TBNetが効率的なモデル保護を低コストで達成できることを実証している。
論文 参考訳(メタデータ) (2024-05-07T03:08:30Z) - Privacy preserving layer partitioning for Deep Neural Network models [0.21470800327528838]
Trusted Execution Environments (TEEs)は、暗号化、復号化、セキュリティ、整合性チェックなどの追加レイヤによって、大幅なパフォーマンスオーバーヘッドを発生させることができる。
我々はGPUに層分割技術とオフロード計算を導入する。
我々は、訓練された条件付き生成逆数ネットワーク(c-GAN)を用いた入力再構成攻撃の防御におけるアプローチの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-11T02:39:48Z) - Memory-Efficient and Secure DNN Inference on TrustZone-enabled Consumer IoT Devices [9.928745904761358]
エッジインテリジェンスにより、元のデータを転送することなく、リソース要求のDeep Neural Network(DNN)推論が可能になる。
プライバシに敏感なアプリケーションでは、ハードウェアアイソレーションされた信頼できる実行環境(TEE)にモデルをデプロイすることが不可欠である。
我々は,モデル推論における包括的プライバシ保護を保証するため,TrustZoneにおける高度なモデル展開のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-19T09:22:50Z) - No Privacy Left Outside: On the (In-)Security of TEE-Shielded DNN
Partition for On-Device ML [28.392497220631032]
既存のTSDPソリューションは、プライバシスティーリング攻撃に対して脆弱であり、一般的に信じられているほど安全ではないことを示す。
DNN推論中にMSとMIAを防御する新しいTSDP法TEESliceを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:54:52Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。