論文の概要: Optimizing Layerwise Polynomial Approximation for Efficient Private
Inference on Fully Homomorphic Encryption: A Dynamic Programming Approach
- arxiv url: http://arxiv.org/abs/2310.10349v1
- Date: Mon, 16 Oct 2023 12:34:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 14:38:28.308068
- Title: Optimizing Layerwise Polynomial Approximation for Efficient Private
Inference on Fully Homomorphic Encryption: A Dynamic Programming Approach
- Title(参考訳): 完全準同型暗号における効率的なプライベート推論のための階層多項式近似の最適化:動的計画法アプローチ
- Authors: Junghyun Lee, Eunsang Lee, Young-Sik Kim, Yongwoo Lee, Joon-Woo Lee,
Yongjune Kim, Jong-Seon No
- Abstract要約: 高次近似は、かなりの量の同型資源を消費する。
活性化関数の入力分布を重み付けした最小二乗近似法を用いる。
ResNet-20モデルとResNet-32モデルの推論時間をそれぞれ3.44倍と3.16倍に削減できる。
- 参考スコア(独自算出の注目度): 17.863635679807977
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent research has explored the implementation of privacy-preserving deep
neural networks solely using fully homomorphic encryption. However, its
practicality has been limited because of prolonged inference times. When using
a pre-trained model without retraining, a major factor contributing to these
prolonged inference times is the high-degree polynomial approximation of
activation functions such as the ReLU function. The high-degree approximation
consumes a substantial amount of homomorphic computational resources, resulting
in slower inference. Unlike the previous works approximating activation
functions uniformly and conservatively, this paper presents a \emph{layerwise}
degree optimization of activation functions to aggressively reduce the
inference time while maintaining classification accuracy by taking into account
the characteristics of each layer. Instead of the minimax approximation
commonly used in state-of-the-art private inference models, we employ the
weighted least squares approximation method with the input distributions of
activation functions. Then, we obtain the layerwise optimized degrees for
activation functions through the \emph{dynamic programming} algorithm,
considering how each layer's approximation error affects the classification
accuracy of the deep neural network. Furthermore, we propose modulating the
ciphertext moduli-chain layerwise to reduce the inference time. By these
proposed layerwise optimization methods, we can reduce inference times for the
ResNet-20 model and the ResNet-32 model by 3.44 times and 3.16 times,
respectively, in comparison to the prior implementations employing uniform
degree polynomials and a consistent ciphertext modulus.
- Abstract(参考訳): 近年,完全同型暗号のみを用いたプライバシー保護型ディープニューラルネットワークの実装について検討している。
しかし、推論時間が長かったため実用性は限られている。
トレーニングなしの事前学習モデルを使用する場合、これらの長期推論時間に寄与する主要な要因は、ReLU関数のような活性化関数の高次多項式近似である。
高次近似はかなりの量の準同型計算資源を消費し、推論が遅くなる。
本稿では,活性化関数を一様・一様・一様に近似する従来の手法と異なり,各層の特徴を考慮し,分類精度を維持しつつ,推定時間を積極的に削減する,活性化関数の次数最適化を提案する。
最先端のプライベート推論モデルでよく用いられるミニマックス近似の代わりに、活性化関数の入力分布を持つ重み付き最小二乗近似法を用いる。
次に、各層の近似誤差がディープニューラルネットワークの分類精度にどのように影響するかを考慮して、emph{dynamic programming}アルゴリズムによる活性化関数の層別最適化度を求める。
さらに,推定時間を短縮するために,暗号文のモジュラーチェーンを階層的に変調する手法を提案する。
これらの階層最適化手法により、一様次多項式と一貫した暗号文係数を用いた先行実装と比較して、ResNet-20モデルとResNet-32モデルの推論時間をそれぞれ3.44倍と3.16倍に削減できる。
関連論文リスト
- A domain decomposition-based autoregressive deep learning model for unsteady and nonlinear partial differential equations [2.7755345520127936]
非定常・非線形偏微分方程式(PDE)を正確にモデル化するためのドメイン分割型ディープラーニング(DL)フレームワークCoMLSimを提案する。
このフレームワークは、(a)畳み込みニューラルネットワーク(CNN)ベースのオートエンコーダアーキテクチャと(b)完全に接続された層で構成される自己回帰モデルという、2つの重要なコンポーネントで構成されている。
論文 参考訳(メタデータ) (2024-08-26T17:50:47Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - Edge-Efficient Deep Learning Models for Automatic Modulation Classification: A Performance Analysis [0.7428236410246183]
無線信号の自動変調分類(AMC)のための最適化畳み込みニューラルネットワーク(CNN)について検討した。
本稿では,これらの手法を組み合わせて最適化モデルを提案する。
実験結果から,提案手法と組み合わせ最適化手法は,複雑度が著しく低いモデルの開発に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-04-11T06:08:23Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Adaptive LASSO estimation for functional hidden dynamic geostatistical
model [69.10717733870575]
関数型隠れ統計モデル(f-HD)のためのペナル化極大推定器(PMLE)に基づく新しいモデル選択アルゴリズムを提案する。
このアルゴリズムは反復最適化に基づいており、適応最小限の収縮・セレクタ演算子(GMSOLAS)ペナルティ関数を用いており、これは不給付のf-HD最大線量推定器によって得られる。
論文 参考訳(メタデータ) (2022-08-10T19:17:45Z) - Sample-efficient Iterative Lower Bound Optimization of Deep Reactive
Policies for Planning in Continuous MDPs [27.41101006357176]
本研究では,最小化-最大化の観点から反復的に最適化する。
w.r.t.は局所的に厳密な下界の目的である。
反復的下界最適化(ILBO)としての学習の新たな定式化は、(i)各ステップが全体目標よりも構造的に容易に最適化できるため、特に魅力的である。
実験的な評価により、ILBOは最先端のプランナーよりもはるかに試料効率が高いことが確認された。
論文 参考訳(メタデータ) (2022-03-23T19:06:16Z) - Logistic Q-Learning [87.00813469969167]
MDPにおける最適制御の正規化線形プログラミング定式化から導いた新しい強化学習アルゴリズムを提案する。
提案アルゴリズムの主な特徴は,広範に使用されているベルマン誤差の代わりとして理論的に音声として機能する,政策評価のための凸損失関数である。
論文 参考訳(メタデータ) (2020-10-21T17:14:31Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Stochastic Polyak Step-size for SGD: An Adaptive Learning Rate for Fast
Convergence [30.393999722555154]
本稿では,古典的ポリアクステップサイズ (Polyak, 1987) の亜次法でよく用いられる変種を提案する。
The proposed Polyak step-size (SPS) is a attractive choice for set the learning rate for gradient descent。
論文 参考訳(メタデータ) (2020-02-24T20:57:23Z) - Adaptive Approximate Policy Iteration [22.915651391812187]
均一なエルゴディックMDPの学習を継続する学習方法として,$tildeO(T2/3)$ regret bound for undiscounted, continuing learning in uniformly ergodic MDPを提案する。
これは、関数近似を持つ平均逆ケースに対する$tildeO(T3/4)$の最良の既存の境界よりも改善されている。
論文 参考訳(メタデータ) (2020-02-08T02:27:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。