論文の概要: HEMET: A Homomorphic-Encryption-Friendly Privacy-Preserving Mobile
Neural Network Architecture
- arxiv url: http://arxiv.org/abs/2106.00038v1
- Date: Mon, 31 May 2021 18:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 07:50:24.216387
- Title: HEMET: A Homomorphic-Encryption-Friendly Privacy-Preserving Mobile
Neural Network Architecture
- Title(参考訳): HEMET: 均一な暗号化フレンドリなプライバシ保護型モバイルニューラルネットワークアーキテクチャ
- Authors: Qian Lou and Lei Jiang
- Abstract要約: プライバシー保護ニューラルネットワーク(PPNN)の実装に同型暗号化(HE)を用いる
我々は、textbfHEに親しみやすいプライバシー保護を行う textbfMobile Neural ntextbfETwork Architecture, textbfHEMET を提案する。
- 参考スコア(独自算出の注目度): 16.934772841669275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently Homomorphic Encryption (HE) is used to implement Privacy-Preserving
Neural Networks (PPNNs) that perform inferences directly on encrypted data
without decryption. Prior PPNNs adopt mobile network architectures such as
SqueezeNet for smaller computing overhead, but we find na\"ively using mobile
network architectures for a PPNN does not necessarily achieve shorter inference
latency. Despite having less parameters, a mobile network architecture
typically introduces more layers and increases the HE multiplicative depth of a
PPNN, thereby prolonging its inference latency. In this paper, we propose a
\textbf{HE}-friendly privacy-preserving \textbf{M}obile neural n\textbf{ET}work
architecture, \textbf{HEMET}. Experimental results show that, compared to
state-of-the-art (SOTA) PPNNs, HEMET reduces the inference latency by
$59.3\%\sim 61.2\%$, and improves the inference accuracy by $0.4 \% \sim
0.5\%$.
- Abstract(参考訳): 近年、同型暗号化(HE)はプライバシー保護ニューラルネットワーク(PPNN)の実装に使われ、復号化せずに暗号化データに直接推論を行う。
以前の ppnn では、より小さな計算オーバーヘッドのために squeezenet のようなモバイルネットワークアーキテクチャが採用されていたが、ppnn でモバイルネットワークアーキテクチャを使用すると、必ずしも短い推論遅延が得られるわけではない。
パラメータが少ないにもかかわらず、モバイルネットワークアーキテクチャは一般的により多くの層を導入し、ppnnの乗算深さを増加させ、推論遅延を延ばす。
本稿では, プライバシー保護に配慮した \textbf{HE} ニューラル n\textbf{ET}work architecture, \textbf{HEMET} を提案する。
実験結果から, 最先端(SOTA)PPNNと比較して, HEMETは推論遅延を59.3\%\sim 61.2\%$に削減し, 推論精度を0.4 \% \sim 0.5\%$に改善した。
関連論文リスト
- Toward Practical Privacy-Preserving Convolutional Neural Networks Exploiting Fully Homomorphic Encryption [11.706881389387242]
準同型暗号化(FHE)は、プライベート推論(PI)を実現するための実行可能なアプローチである
FHEのCNNの実装は、主に計算とメモリのオーバーヘッドが大きいため、大きなハードルに直面している。
本稿では、GPU/ASICアクセラレーション、効率的なアクティベーション機能、最適化されたパッキングスキームを含む最適化セットを提案する。
論文 参考訳(メタデータ) (2023-10-25T10:24:35Z) - Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural
Networks [5.274804664403783]
スパイキングニューラルネットワーク(SNN)は人間の脳の振る舞いを模倣し、効率を改善しエネルギー消費を減らす。
ホモモルフィック暗号化(HE)は、暗号データを復号することなく計算を実行できるソリューションを提供する。
この研究では、Brakerski/Fan-Vercauteren(BFV)暗号化スキームを用いて、従来のディープニューラルネットワーク(DNN)とSNNを比較した。
論文 参考訳(メタデータ) (2023-08-10T15:26:35Z) - HyPHEN: A Hybrid Packing Method and Optimizations for Homomorphic
Encryption-Based Neural Networks [7.642103082787977]
完全同相暗号(FHE)を用いた畳み込みニューラルネットワーク(CNN)推論は、有望なプライベート推論(PI)ソリューションである。
本稿では、新しい畳み込みアルゴリズムとデータパッキングを組み込んだ深層HCNN構築法であるHyPHENを提案する。
その結果、HyPHENはHCNN CIFAR-10推論のレイテンシを1.4秒(ResNet-20)で実践レベルまで下げ、初めて14.7秒(ResNet-18)でHCNN ImageNet推論を示す。
論文 参考訳(メタデータ) (2023-02-05T15:36:51Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Selective Network Linearization for Efficient Private Inference [49.937470642033155]
本稿では,予測精度を維持しつつReLUを選択的に線形化する勾配に基づくアルゴリズムを提案する。
その結果、現在の技術よりも4.25%$の精度(so-ReLUは50K)、または2.2times$のレイテンシ(so-accuracyは70%)が低いことがわかった。
論文 参考訳(メタデータ) (2022-02-04T19:00:24Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - RED++ : Data-Free Pruning of Deep Neural Networks via Input Splitting
and Output Merging [36.027765880474526]
Pruning Deep Neural Networks (DNN) は、推論ランタイムアクセラレーションの目標において、顕著な研究分野である。
本稿では,新しいデータフリープルーニングプロトコルRED++を紹介する。
ハッシュによる精度の保存に関する理論的および実証的な保証について検討する。
論文 参考訳(メタデータ) (2021-09-30T09:31:11Z) - Sphynx: ReLU-Efficient Network Design for Private Inference [49.73927340643812]
そこでは、サービスプロバイダのモデルを使用して、ユーザのデータサンプルに対する推論を実行することを目標としています。
ディープネットワークのための既存のPIメソッドは、機能低下の少ない暗号的にセキュアな推論を可能にする。
本稿では,畳み込みセル設計のためのマイクロサーチ手法に基づくReLU効率の高いネットワーク設計手法であるSphynxを提案する。
論文 参考訳(メタデータ) (2021-06-17T18:11:10Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。