論文の概要: AutoPrivacy: Automated Layer-wise Parameter Selection for Secure Neural
Network Inference
- arxiv url: http://arxiv.org/abs/2006.04219v2
- Date: Thu, 15 Oct 2020 21:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 08:40:42.457149
- Title: AutoPrivacy: Automated Layer-wise Parameter Selection for Secure Neural
Network Inference
- Title(参考訳): AutoPrivacy: セキュアニューラルネットワーク推論のためのレイヤワイズパラメータ自動選択
- Authors: Qian Lou and Song Bian and Lei Jiang
- Abstract要約: ホモモルフィック暗号(HE)による線形層を実装したハイブリッドプライバシ保護ニューラルネットワーク(HPPNN)
我々は,HPPNNの各線形層に対するHEパラメータの集合を自動的に決定するために,深層強化学習を利用する自動層状パラメータセレクタAutoPrivacyを提案する。
従来のHPPNNと比較して、AutoPrivacyに最適化されたHPPNNは、精度の低下を無視して、推論遅延を53%sim70%$削減した。
- 参考スコア(独自算出の注目度): 22.727152516802434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hybrid Privacy-Preserving Neural Network (HPPNN) implementing linear layers
by Homomorphic Encryption (HE) and nonlinear layers by Garbled Circuit (GC) is
one of the most promising secure solutions to emerging Machine Learning as a
Service (MLaaS). Unfortunately, a HPPNN suffers from long inference latency,
e.g., $\sim100$ seconds per image, which makes MLaaS unsatisfactory. Because
HE-based linear layers of a HPPNN cost $93\%$ inference latency, it is critical
to select a set of HE parameters to minimize computational overhead of linear
layers. Prior HPPNNs over-pessimistically select huge HE parameters to maintain
large noise budgets, since they use the same set of HE parameters for an entire
network and ignore the error tolerance capability of a network.
In this paper, for fast and accurate secure neural network inference, we
propose an automated layer-wise parameter selector, AutoPrivacy, that leverages
deep reinforcement learning to automatically determine a set of HE parameters
for each linear layer in a HPPNN. The learning-based HE parameter selection
policy outperforms conventional rule-based HE parameter selection policy.
Compared to prior HPPNNs, AutoPrivacy-optimized HPPNNs reduce inference latency
by $53\%\sim70\%$ with negligible loss of accuracy.
- Abstract(参考訳): 準同型暗号化(he)による線形層と、garbled circuit(gc)による非線形層を実装するハイブリッドプライバシ保存ニューラルネットワーク(hppnn)は、新興のマシンラーニング・アズ・ア・サービス(mlaas)に対して、最も有望なセキュアなソリューションの1つである。
残念なことに、HPPNNは画像毎の$\sim100$ secondsなどの長時間の推論遅延に悩まされており、MLaaSは満足できない。
HPPNN の HE ベースの線形層は 93 %$ の推論遅延を必要とするため,線形層の計算オーバーヘッドを最小限に抑えるため,HE パラメータのセットを選択することが重要である。
HPPNNは、ネットワーク全体で同じHEパラメータセットを使用して、ネットワークのエラー許容能力を無視するため、大きなノイズ予算を維持するために巨大なHEパラメータを過小評価的に選択する。
本稿では,高速かつ高精度な安全なニューラルネットワーク推定のために,hpcnn内の各線形層に対するheパラメータのセットを自動決定するために,深層強化学習を利用する自動階層型パラメータセレクタautoprivacyを提案する。
学習に基づくHEパラメータ選択ポリシーは、従来のルールベースのHEパラメータ選択ポリシーよりも優れている。
従来の hppnn と比較して、autoprivacy-optimized hppnn は推論遅延を 53\%\sim70\%$ 削減し、精度は無視できる。
関連論文リスト
- Local Loss Optimization in the Infinite Width: Stable Parameterization of Predictive Coding Networks and Target Propagation [8.35644084613785]
局所目標の2つの代表的設計に対して、無限幅極限における最大更新パラメータ化(mu$P)を導入する。
深層線形ネットワークを解析した結果,PCの勾配は1次勾配とガウス・ニュートン様勾配の間に介在していることが判明した。
我々は、特定の標準設定において、無限幅制限のPCは、一階勾配とよりよく似た振る舞いをすることを示した。
論文 参考訳(メタデータ) (2024-11-04T11:38:27Z) - GPT-PINN: Generative Pre-Trained Physics-Informed Neural Networks toward
non-intrusive Meta-learning of parametric PDEs [0.0]
パラメトリックPDEの設定における課題を緩和するために,GPT-PINN(Generative Pre-Trained PINN)を提案する。
ネットワークのネットワークとして、その外/meta-networkは、ニューロン数が大幅に減少している隠蔽層が1つしかないことで、ハイパーリデュースされる。
メタネットワークは、システムのパラメトリック依存を適応的に学習し、この隠れた1つのニューロンを一度に成長させる。
論文 参考訳(メタデータ) (2023-03-27T02:22:09Z) - Differentially Private Deep Q-Learning for Pattern Privacy Preservation
in MEC Offloading [76.0572817182483]
攻撃者は、エッジサーバ(ES)のキュー情報とユーザの使用パターンを推測するために、オフロードの決定を盗み取ることができる。
パターンプライバシ(PP)を維持しつつ,レイテンシ,ESのエネルギー消費,タスク削減率を両立させるオフロード戦略を提案する。
そこで我々はDP-DQOアルゴリズムを開発し,PP問題にノイズを注入することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T12:50:18Z) - HyPHEN: A Hybrid Packing Method and Optimizations for Homomorphic
Encryption-Based Neural Networks [7.642103082787977]
完全同相暗号(FHE)を用いた畳み込みニューラルネットワーク(CNN)推論は、有望なプライベート推論(PI)ソリューションである。
本稿では、新しい畳み込みアルゴリズムとデータパッキングを組み込んだ深層HCNN構築法であるHyPHENを提案する。
その結果、HyPHENはHCNN CIFAR-10推論のレイテンシを1.4秒(ResNet-20)で実践レベルまで下げ、初めて14.7秒(ResNet-18)でHCNN ImageNet推論を示す。
論文 参考訳(メタデータ) (2023-02-05T15:36:51Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Bayesian Hyperparameter Optimization for Deep Neural Network-Based
Network Intrusion Detection [2.304713283039168]
侵入検出問題に対してディープニューラルネットワーク(DNN)がうまく適用されている。
本稿では,ハイパーパラメータの自動最適化のための新しいベイズ最適化フレームワークを提案する。
提案手法は,ランダムな探索最適化手法よりも侵入検出性能が高いことを示す。
論文 参考訳(メタデータ) (2022-07-07T20:08:38Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Joint Deep Reinforcement Learning and Unfolding: Beam Selection and
Precoding for mmWave Multiuser MIMO with Lens Arrays [54.43962058166702]
離散レンズアレイを用いたミリ波マルチユーザマルチインプット多重出力(MU-MIMO)システムに注目が集まっている。
本研究では、DLA を用いた mmWave MU-MIMO システムのビームプリコーディング行列の共同設計について検討する。
論文 参考訳(メタデータ) (2021-01-05T03:55:04Z) - Neural Parameter Allocation Search [57.190693718951316]
ニューラルネットワークのトレーニングには、メモリの量を増やす必要がある。
既存の手法では、ネットワークには多くの同一層があり、一般化に失敗する手作りの共有戦略を利用する。
我々は、任意のパラメータ予算を与えられたニューラルネットワークをトレーニングする新しいタスクであるNPAS(Neural Allocation Search)を紹介する。
NPASは、コンパクトネットワークを創出する低予算体制と、推論FLOPを増大させることなく性能を高めるために、新たな高予算体制の両方をカバーしている。
論文 参考訳(メタデータ) (2020-06-18T15:01:00Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。