論文の概要: GECKO: Reconciling Privacy, Accuracy and Efficiency in Embedded Deep
Learning
- arxiv url: http://arxiv.org/abs/2010.00912v3
- Date: Sun, 9 Jan 2022 14:33:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:36:20.955044
- Title: GECKO: Reconciling Privacy, Accuracy and Efficiency in Embedded Deep
Learning
- Title(参考訳): GECKO: 組み込みディープラーニングにおけるプライバシ、正確性、効率性の再検討
- Authors: Vasisht Duddu, Antoine Boutet, Virat Shejwalkar
- Abstract要約: NNにおけるIoTデバイスの3次元プライバシ-精度-効率トレードオフを分析します。
設計目的として,私的推論に対する抵抗を明示的に付加するGeckoトレーニング手法を提案する。
- 参考スコア(独自算出の注目度): 5.092028049119383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedded systems demand on-device processing of data using Neural Networks
(NNs) while conforming to the memory, power and computation constraints,
leading to an efficiency and accuracy tradeoff. To bring NNs to edge devices,
several optimizations such as model compression through pruning, quantization,
and off-the-shelf architectures with efficient design have been extensively
adopted. These algorithms when deployed to real world sensitive applications,
requires to resist inference attacks to protect privacy of users training data.
However, resistance against inference attacks is not accounted for designing NN
models for IoT. In this work, we analyse the three-dimensional
privacy-accuracy-efficiency tradeoff in NNs for IoT devices and propose Gecko
training methodology where we explicitly add resistance to private inferences
as a design objective. We optimize the inference-time memory, computation, and
power constraints of embedded devices as a criterion for designing NN
architecture while also preserving privacy. We choose quantization as design
choice for highly efficient and private models. This choice is driven by the
observation that compressed models leak more information compared to baseline
models while off-the-shelf efficient architectures indicate poor efficiency and
privacy tradeoff. We show that models trained using Gecko methodology are
comparable to prior defences against black-box membership attacks in terms of
accuracy and privacy while providing efficiency.
- Abstract(参考訳): 組み込みシステムは、メモリ、電力、計算の制約に従って、ニューラルネットワーク(NN)を使用してデータのオンデバイス処理を要求するため、効率と精度のトレードオフをもたらす。
エッジデバイスにNNを導入するために、プルーニングによるモデル圧縮、量子化、効率的な設計による既製のアーキテクチャなど、いくつかの最適化が広く採用されている。
これらのアルゴリズムは、現実のセンシティブなアプリケーションにデプロイすると、データをトレーニングするユーザのプライバシを保護するために、推論攻撃に抵抗する必要がある。
しかしながら、IoT用のNNモデルの設計には、推論攻撃に対する抵抗は考慮されていない。
本研究では,IoTデバイス用NNにおける3次元プライバシ-精度-効率トレードオフを分析し,設計目的としてプライベート推論に対する抵抗を明示的に付加するGeckoトレーニング手法を提案する。
NNアーキテクチャの設計とプライバシ保護のための基準として,組み込みデバイスの推論時メモリ,計算,電力制約を最適化する。
我々は、高効率でプライベートなモデルの設計選択として量子化を選択します。
この選択は、圧縮されたモデルがベースラインモデルよりも多くの情報を漏らすという観測によって導かれる。
Gecko手法を用いてトレーニングされたモデルは、効率性を提供しながら、精度とプライバシの観点から、ブラックボックスメンバシップ攻撃に対する事前防御に匹敵することを示す。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Memory-Efficient and Secure DNN Inference on TrustZone-enabled Consumer IoT Devices [9.928745904761358]
エッジインテリジェンスにより、元のデータを転送することなく、リソース要求のDeep Neural Network(DNN)推論が可能になる。
プライバシに敏感なアプリケーションでは、ハードウェアアイソレーションされた信頼できる実行環境(TEE)にモデルをデプロイすることが不可欠である。
我々は,モデル推論における包括的プライバシ保護を保証するため,TrustZoneにおける高度なモデル展開のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-19T09:22:50Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - Adversarially Robust and Explainable Model Compression with On-Device
Personalization for Text Classification [4.805959718658541]
モバイルデバイスのコンピューティング能力の増大とコンピュータビジョン(CV)と自然言語処理(NLP)のアプリケーション数の増加により、オンデバイスディープニューラルネットワーク(DNN)が最近注目を集めている。
NLPアプリケーションでは、モデル圧縮は最初は成功したが、少なくとも3つの大きな課題が解決されている: 対向的堅牢性、説明可能性、パーソナライゼーションである。
ここでは,モデル圧縮と対向ロバスト性のための新たなトレーニングスキームを設計し,説明可能な特徴マッピングの目的を最適化することによって,これらの課題に対処する。
得られた圧縮モデルは、細かなデバイス上でのプライベートトレーニングデータを用いてパーソナライズされる。
論文 参考訳(メタデータ) (2021-01-10T15:06:55Z) - SOTERIA: In Search of Efficient Neural Networks for Private Inference [15.731520890265545]
マシンラーニング・アズ・ア・サービス(ML-as-a-service)は、クラウドサーバがトレーニングされたモデルをホストし、ユーザに対して予測(推論)サービスを提供することで人気が高まっている。
この設定では、ユーザの入力クエリと、サーバのモデルパラメータの両方の機密性を保護することが目的である。
本稿では,個人推論に効率的に設計できるモデルアーキテクチャを構築するための訓練手法であるSOTERIAを提案する。
論文 参考訳(メタデータ) (2020-07-25T13:53:02Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。