論文の概要: TBNet: A Neural Architectural Defense Framework Facilitating DNN Model Protection in Trusted Execution Environments
- arxiv url: http://arxiv.org/abs/2405.03974v1
- Date: Tue, 7 May 2024 03:08:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 15:28:42.124319
- Title: TBNet: A Neural Architectural Defense Framework Facilitating DNN Model Protection in Trusted Execution Environments
- Title(参考訳): TBNet:信頼された実行環境におけるDNNモデル保護を実現するニューラルネットワークアーキテクチャ防衛フレームワーク
- Authors: Ziyu Liu, Tong Zhou, Yukui Luo, Xiaolin Xu,
- Abstract要約: 本稿では,DNNモデルをニューラルネットワークの観点から保護するTEEベースの防衛フレームワークTBNetを提案する。
多様なDNNモデルアーキテクチャとデータセットにわたるRaspberry Piの実験結果は、TBNetが効率的なモデル保護を低コストで達成できることを実証している。
- 参考スコア(独自算出の注目度): 14.074570784425225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trusted Execution Environments (TEEs) have become a promising solution to secure DNN models on edge devices. However, the existing solutions either provide inadequate protection or introduce large performance overhead. Taking both security and performance into consideration, this paper presents TBNet, a TEE-based defense framework that protects DNN model from a neural architectural perspective. Specifically, TBNet generates a novel Two-Branch substitution model, to respectively exploit (1) the computational resources in the untrusted Rich Execution Environment (REE) for latency reduction and (2) the physically-isolated TEE for model protection. Experimental results on a Raspberry Pi across diverse DNN model architectures and datasets demonstrate that TBNet achieves efficient model protection at a low cost.
- Abstract(参考訳): Trusted Execution Environments (TEE)は、エッジデバイス上でDNNモデルをセキュアにするための有望なソリューションとなっている。
しかし、既存のソリューションは、不十分な保護を提供するか、大きなパフォーマンスオーバーヘッドをもたらすかのいずれかである。
本稿では,DNNモデルをニューラルネットワークの観点から保護するTEEベースの防衛フレームワークTBNetについて述べる。
具体的には,TBNetは,(1)信頼できないRich Execution Environment(REE)の計算資源を遅延低減に利用し,(2)物理的に分離されたTEEをモデル保護に利用するために,新しい2分岐置換モデルを生成する。
多様なDNNモデルアーキテクチャとデータセットにわたるRaspberry Piの実験結果は、TBNetが効率的なモデル保護を低コストで達成できることを実証している。
関連論文リスト
- Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - Proteus: Preserving Model Confidentiality during Graph Optimizations [5.44122875495684]
本稿では,独立政党によるモデル最適化を実現する新しいメカニズムであるProteusを提案する。
Proteusは、計算グラフをサブグラフに分割することで、保護されたモデルを難読化する。
私たちの知る限り、Proteusはパフォーマンス最適化中にモデルの機密性に取り組む最初の作品です。
論文 参考訳(メタデータ) (2024-04-18T21:23:25Z) - DNNShield: Embedding Identifiers for Deep Neural Network Ownership Verification [46.47446944218544]
本稿では、ディープニューラルネットワーク(DNN)の保護のための新しいアプローチであるDNNShieldを紹介する。
DNNShieldは、特別な保護レイヤを使用して、モデルアーキテクチャにユニークな識別子を埋め込む。
3つのデータセットと4つのモデルアーキテクチャにわたる広範囲な評価を通じて、DNNShieldの有効性と効率を検証した。
論文 参考訳(メタデータ) (2024-03-11T10:27:36Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - MirrorNet: A TEE-Friendly Framework for Secure On-device DNN Inference [14.08010398777227]
ディープニューラルネットワーク(DNN)モデルは、リアルタイム推論のためのエッジデバイスで普及している。
既存の防御アプローチでは、モデルの機密性を完全に保護できないか、あるいは重大なレイテンシの問題が発生する。
本稿では、モデル機密性を保護するため、任意のDNNモデルに対してTEEフレンドリーな実装を生成するMirrorNetを提案する。
評価のために、MirrorNetは認証と違法使用の間に18.6%の精度差を達成でき、ハードウェアオーバーヘッドは0.99%に過ぎなかった。
論文 参考訳(メタデータ) (2023-11-16T01:21:19Z) - No Privacy Left Outside: On the (In-)Security of TEE-Shielded DNN
Partition for On-Device ML [28.392497220631032]
既存のTSDPソリューションは、プライバシスティーリング攻撃に対して脆弱であり、一般的に信じられているほど安全ではないことを示す。
DNN推論中にMSとMIAを防御する新しいTSDP法TEESliceを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:54:52Z) - XploreNAS: Explore Adversarially Robust & Hardware-efficient Neural
Architectures for Non-ideal Xbars [2.222917681321253]
本研究は,XploreNASと呼ばれる2段階のアルゴリズム・ハードウェア協調最適化手法を提案する。
非理想的クロスバープラットフォームのための、ハードウェア効率が高く、逆向きに堅牢なニューラルアーキテクチャを検索する。
ベンチマークデータセットを用いたクロスバー実験では,検索したSubnetの対角ロバスト性は最大8-16%向上した。
論文 参考訳(メタデータ) (2023-02-15T16:44:18Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - ShadowNet: A Secure and Efficient On-device Model Inference System for
Convolutional Neural Networks [33.98338559074557]
ShadowNetはデバイス上の新しいモデル推論システムである。
モデルの重い線形層を信頼できないハードウェアアクセラレータに安全にアウトソーシングしながら、モデルのプライバシを保護する。
評価の結果,ShadowNetは高いセキュリティ保証を合理的な性能で達成していることがわかった。
論文 参考訳(メタデータ) (2020-11-11T16:50:08Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。