論文の概要: DarkneTZ: Towards Model Privacy at the Edge using Trusted Execution
Environments
- arxiv url: http://arxiv.org/abs/2004.05703v1
- Date: Sun, 12 Apr 2020 21:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:12:20.116448
- Title: DarkneTZ: Towards Model Privacy at the Edge using Trusted Execution
Environments
- Title(参考訳): DarkneTZ: 信頼できる実行環境を用いたエッジでのモデルプライバシの実現
- Authors: Fan Mo, Ali Shahin Shamsabadi, Kleomenis Katevas, Soteris Demetriou,
Ilias Leontiadis, Andrea Cavallaro, Hamed Haddadi
- Abstract要約: 我々は、エッジデバイスのTrusted Execution Environment(TEE)を使用して、ディープニューラルネットワーク(DNN)に対する攻撃面を制限するフレームワークであるDarkneTZを紹介する。
我々は、CPU実行時間、メモリ使用量、正確な消費電力を含むDarkneTZの性能を評価する。
結果から,単一のレイヤが隠されている場合でも,信頼性の高いモデルプライバシを提供し,技術MIAの状態を防御することが可能になる。
- 参考スコア(独自算出の注目度): 37.84943219784536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DarkneTZ, a framework that uses an edge device's Trusted Execution
Environment (TEE) in conjunction with model partitioning to limit the attack
surface against Deep Neural Networks (DNNs). Increasingly, edge devices
(smartphones and consumer IoT devices) are equipped with pre-trained DNNs for a
variety of applications. This trend comes with privacy risks as models can leak
information about their training data through effective membership inference
attacks (MIAs). We evaluate the performance of DarkneTZ, including CPU
execution time, memory usage, and accurate power consumption, using two small
and six large image classification models. Due to the limited memory of the
edge device's TEE, we partition model layers into more sensitive layers (to be
executed inside the device TEE), and a set of layers to be executed in the
untrusted part of the operating system. Our results show that even if a single
layer is hidden, we can provide reliable model privacy and defend against state
of the art MIAs, with only 3% performance overhead. When fully utilizing the
TEE, DarkneTZ provides model protections with up to 10% overhead.
- Abstract(参考訳): 本稿では,エッジデバイスの信頼実行環境(trusted execution environment, tee)をモデルパーティショニングと併用して,ディープニューラルネットワーク(dnn)に対する攻撃面を制限するフレームワークであるdarknetzを提案する。
エッジデバイス(スマートフォンや消費者向けIoTデバイス)は、さまざまなアプリケーション用に事前訓練されたDNNを備えている。
この傾向は、モデルが効果的なメンバーシップ推論攻撃(mias)を通じてトレーニングデータに関する情報をリークできるため、プライバシリスクが伴う。
我々は,CPU実行時間,メモリ使用量,正確な消費電力を含むDarkneTZの性能を,2つの小さな画像分類モデルと6つの画像分類モデルを用いて評価した。
エッジデバイスのTEEのメモリが限られているため、私たちはモデルレイヤをより機密性の高いレイヤ(デバイスTEE内で実行される)と、オペレーティングシステムの信頼できない部分で実行されるレイヤのセットに分割します。
結果から,単一のレイヤが隠されている場合でも,信頼性の高いモデルプライバシを提供し,技術MIAの状態を防御することが可能になる。
TEEを完全に活用する場合、DarkneTZは最大10%のオーバーヘッドでモデル保護を提供する。
関連論文リスト
- No Privacy Left Outside: On the (In-)Security of TEE-Shielded DNN
Partition for On-Device ML [28.392497220631032]
既存のTSDPソリューションは、プライバシスティーリング攻撃に対して脆弱であり、一般的に信じられているほど安全ではないことを示す。
DNN推論中にMSとMIAを防御する新しいTSDP法TEESliceを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:54:52Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - Certified Zeroth-order Black-Box Defense with Robust UNet Denoiser [49.48302117748021]
ブラックボックス設定において,攻撃画像から逆方向の摂動を取り除くための認証済みZO前処理手法を提案する。
本研究では,高次元データセットでトレーニングしたブラックボックスモデルのロバスト性を保証するロバストなUNetデノイザ(RDUNet)を提案する。
CIFAR-10, CIFAR-10, Tiny Imagenet, STL-10, MNISTの4つの分類データセットの実験を行った。
論文 参考訳(メタデータ) (2023-04-13T11:57:06Z) - Shielding Federated Learning Systems against Inference Attacks with ARM
TrustZone [0.0]
フェデレートラーニング(FL)は、マシンラーニングモデルをトレーニングする上で、個人データをユーザ環境に保持する新たな視点を開放する。
近年、個人データを勾配から流出させる推論攻撃の長いリストは、効果的な保護メカニズムの考案の必要性を強調している。
GradSecは、機械学習モデルのTEEのみに敏感なレイヤを保護できるソリューションです。
論文 参考訳(メタデータ) (2022-08-11T15:53:07Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - PPFL: Privacy-preserving Federated Learning with Trusted Execution
Environments [10.157652550610017]
モバイルシステム向けのプライバシー保護フェデレーションラーニングフレームワークの提案と実装を行います。
我々は,クライアント上でのTrusted Execution Environments(TEEs)をローカルトレーニング,サーバ上でのセキュアアグリゲーションに活用する。
実装の性能評価の結果,PPFLはクライアント側で小さなシステムオーバーヘッドを発生させながら,プライバシーを著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-04-29T14:46:16Z) - ShadowNet: A Secure and Efficient On-device Model Inference System for
Convolutional Neural Networks [33.98338559074557]
ShadowNetはデバイス上の新しいモデル推論システムである。
モデルの重い線形層を信頼できないハードウェアアクセラレータに安全にアウトソーシングしながら、モデルのプライバシを保護する。
評価の結果,ShadowNetは高いセキュリティ保証を合理的な性能で達成していることがわかった。
論文 参考訳(メタデータ) (2020-11-11T16:50:08Z) - GECKO: Reconciling Privacy, Accuracy and Efficiency in Embedded Deep
Learning [5.092028049119383]
NNにおけるIoTデバイスの3次元プライバシ-精度-効率トレードオフを分析します。
設計目的として,私的推論に対する抵抗を明示的に付加するGeckoトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T10:36:55Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。