論文の概要: DarkneTZ: Towards Model Privacy at the Edge using Trusted Execution
Environments
- arxiv url: http://arxiv.org/abs/2004.05703v1
- Date: Sun, 12 Apr 2020 21:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:12:20.116448
- Title: DarkneTZ: Towards Model Privacy at the Edge using Trusted Execution
Environments
- Title(参考訳): DarkneTZ: 信頼できる実行環境を用いたエッジでのモデルプライバシの実現
- Authors: Fan Mo, Ali Shahin Shamsabadi, Kleomenis Katevas, Soteris Demetriou,
Ilias Leontiadis, Andrea Cavallaro, Hamed Haddadi
- Abstract要約: 我々は、エッジデバイスのTrusted Execution Environment(TEE)を使用して、ディープニューラルネットワーク(DNN)に対する攻撃面を制限するフレームワークであるDarkneTZを紹介する。
我々は、CPU実行時間、メモリ使用量、正確な消費電力を含むDarkneTZの性能を評価する。
結果から,単一のレイヤが隠されている場合でも,信頼性の高いモデルプライバシを提供し,技術MIAの状態を防御することが可能になる。
- 参考スコア(独自算出の注目度): 37.84943219784536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DarkneTZ, a framework that uses an edge device's Trusted Execution
Environment (TEE) in conjunction with model partitioning to limit the attack
surface against Deep Neural Networks (DNNs). Increasingly, edge devices
(smartphones and consumer IoT devices) are equipped with pre-trained DNNs for a
variety of applications. This trend comes with privacy risks as models can leak
information about their training data through effective membership inference
attacks (MIAs). We evaluate the performance of DarkneTZ, including CPU
execution time, memory usage, and accurate power consumption, using two small
and six large image classification models. Due to the limited memory of the
edge device's TEE, we partition model layers into more sensitive layers (to be
executed inside the device TEE), and a set of layers to be executed in the
untrusted part of the operating system. Our results show that even if a single
layer is hidden, we can provide reliable model privacy and defend against state
of the art MIAs, with only 3% performance overhead. When fully utilizing the
TEE, DarkneTZ provides model protections with up to 10% overhead.
- Abstract(参考訳): 本稿では,エッジデバイスの信頼実行環境(trusted execution environment, tee)をモデルパーティショニングと併用して,ディープニューラルネットワーク(dnn)に対する攻撃面を制限するフレームワークであるdarknetzを提案する。
エッジデバイス(スマートフォンや消費者向けIoTデバイス)は、さまざまなアプリケーション用に事前訓練されたDNNを備えている。
この傾向は、モデルが効果的なメンバーシップ推論攻撃(mias)を通じてトレーニングデータに関する情報をリークできるため、プライバシリスクが伴う。
我々は,CPU実行時間,メモリ使用量,正確な消費電力を含むDarkneTZの性能を,2つの小さな画像分類モデルと6つの画像分類モデルを用いて評価した。
エッジデバイスのTEEのメモリが限られているため、私たちはモデルレイヤをより機密性の高いレイヤ(デバイスTEE内で実行される)と、オペレーティングシステムの信頼できない部分で実行されるレイヤのセットに分割します。
結果から,単一のレイヤが隠されている場合でも,信頼性の高いモデルプライバシを提供し,技術MIAの状態を防御することが可能になる。
TEEを完全に活用する場合、DarkneTZは最大10%のオーバーヘッドでモデル保護を提供する。
関連論文リスト
- SafetyDPO: Scalable Safety Alignment for Text-to-Image Generation [68.07258248467309]
テキスト・ツー・イメージ(T2I)モデルは広く普及しているが、その限られた安全ガードレールはエンドユーザを有害なコンテンツに晒し、モデル誤用を許容する可能性がある。
現在の安全対策はテキストベースのフィルタリングや概念除去戦略に限られており、モデルの生成能力からわずかに概念を除去することができる。
直接選好最適化(DPO)によるT2Iモデルの安全アライメント手法であるSafetyDPOを導入する。
我々は、ローランク適応(LoRA)行列の形で、特定の安全関連から生成プロセスを導くことができる安全専門家を訓練する。
論文 参考訳(メタデータ) (2024-12-13T18:59:52Z) - TEESlice: Protecting Sensitive Neural Network Models in Trusted Execution Environments When Attackers have Pre-Trained Models [12.253529209143197]
TSDPは、TEE内のプライバシーに敏感な重みを保護し、GPUに不感な重みをオフロードする手法である。
トレーニング戦略の前に新たなパーティションを導入し,プライバシに敏感な重みをモデルの他のコンポーネントと効果的に分離する。
提案手法は, 計算コストを10倍に削減し, 完全なモデル保護を実現できることを示す。
論文 参考訳(メタデータ) (2024-11-15T04:52:11Z) - Privacy preserving layer partitioning for Deep Neural Network models [0.21470800327528838]
Trusted Execution Environments (TEEs)は、暗号化、復号化、セキュリティ、整合性チェックなどの追加レイヤによって、大幅なパフォーマンスオーバーヘッドを発生させることができる。
我々はGPUに層分割技術とオフロード計算を導入する。
我々は、訓練された条件付き生成逆数ネットワーク(c-GAN)を用いた入力再構成攻撃の防御におけるアプローチの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-11T02:39:48Z) - Memory-Efficient and Secure DNN Inference on TrustZone-enabled Consumer IoT Devices [9.928745904761358]
エッジインテリジェンスにより、元のデータを転送することなく、リソース要求のDeep Neural Network(DNN)推論が可能になる。
プライバシに敏感なアプリケーションでは、ハードウェアアイソレーションされた信頼できる実行環境(TEE)にモデルをデプロイすることが不可欠である。
我々は,モデル推論における包括的プライバシ保護を保証するため,TrustZoneにおける高度なモデル展開のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-19T09:22:50Z) - No Privacy Left Outside: On the (In-)Security of TEE-Shielded DNN
Partition for On-Device ML [28.392497220631032]
既存のTSDPソリューションは、プライバシスティーリング攻撃に対して脆弱であり、一般的に信じられているほど安全ではないことを示す。
DNN推論中にMSとMIAを防御する新しいTSDP法TEESliceを提案する。
論文 参考訳(メタデータ) (2023-10-11T02:54:52Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - Shielding Federated Learning Systems against Inference Attacks with ARM
TrustZone [0.0]
フェデレートラーニング(FL)は、マシンラーニングモデルをトレーニングする上で、個人データをユーザ環境に保持する新たな視点を開放する。
近年、個人データを勾配から流出させる推論攻撃の長いリストは、効果的な保護メカニズムの考案の必要性を強調している。
GradSecは、機械学習モデルのTEEのみに敏感なレイヤを保護できるソリューションです。
論文 参考訳(メタデータ) (2022-08-11T15:53:07Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。