論文の概要: A Simple Solution for Homomorphic Evaluation on Large Intervals
- arxiv url: http://arxiv.org/abs/2405.15201v1
- Date: Fri, 24 May 2024 04:13:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 18:09:00.230393
- Title: A Simple Solution for Homomorphic Evaluation on Large Intervals
- Title(参考訳): 大区間における相同性評価の簡易解法
- Authors: John Chiang,
- Abstract要約: ホモモルフィック暗号化(HE)は、プライバシー保護計算に使用される有望な手法である。
非ポリノミカル関数の近似の同型評価は、プライバシ保存機械学習において重要な役割を果たす。
我々は,任意の関数を近似する簡単な解を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Homomorphic encryption (HE) is a promising technique used for privacy-preserving computation. Since HE schemes only support primitive polynomial operations, homomorphic evaluation of polynomial approximations for non-polynomial functions plays an important role in privacy-preserving machine learning. In this paper, we introduce a simple solution to approximating any functions, which might be overmissed by researchers: just using the neural networks for regressions. By searching decent superparameters, neural networks can achieve near-optimal computation depth for a given function with fixed precision, thereby reducing the modulus consumed. There are three main reasons why we choose neural networks for homomorphic evaluation of polynomial approximations. Firstly, neural networks with polynomial activation functions can be used to approximate whatever functions are needed in an encrypted state. This means that we can compute by one unified process for any polynomial approximation, such as that of Sigmoid or of ReLU. Secondly, by carefully finding an appropriate architecture, neural networks can efficiently evaluate a polynomial using near-optimal multiplicative depth, which would consume less modulus and therefore employ less ciphertext refreshing. Finally, as popular tools, model neural networks have many well-studied techniques that can conveniently serve our solution. Experiments showed that our method can be used for approximation of various functions. We exploit our method to the evaluation of the Sigmoid function on large intervals $[-30, +30]$, $[-50, +50]$, and $[-70, +70]$, respectively.
- Abstract(参考訳): ホモモルフィック暗号化(HE)は、プライバシー保護計算に使用される有望な手法である。
HEスキームはプリミティブ多項式演算のみをサポートするため、非ポリノミカル関数に対する多項式近似の準同型評価は、プライバシ保存機械学習において重要な役割を果たす。
本稿では,リグレッションにニューラルネットワークを用いるという,研究者が過度に無視する可能性のある,任意の関数を近似する簡単な解を提案する。
適切なスーパーパラメータを探索することにより、ニューラルネットワークは所定の関数に対して一定の精度で近似最適計算深度を達成でき、それによって消費される係数を低減できる。
多項式近似の同型評価のためにニューラルネットワークを選択する主な理由は3つある。
まず、多項式活性化関数を持つニューラルネットワークを使用して、暗号化された状態に必要な関数を近似することができる。
これは、Sigmoid や ReLU のような任意の多項式近似に対して、1つの統一過程で計算できることを意味する。
第二に、適切なアーキテクチャを慎重に見つけることで、ニューラルネットワークは近似的乗法深さを用いて多項式を効率的に評価することができる。
最後に、人気のあるツールとして、モデルニューラルネットワークは、私たちのソリューションに便利な、よく研究された多くの技術を持っています。
実験の結果,本手法は様々な関数の近似に利用できることがわかった。
我々はSigmoid関数を大間隔で評価するために, $[-30, +30]$, $[-50, +50]$, $[-70, +70]$をそれぞれ利用した。
関連論文リスト
- Memory capacity of three-layer neural networks with non-polynomial activations [0.0]
活性化関数が一点ではなく一点で現実である限り、$Theta(sqrtn)$ニューロンは十分であることを示す。
これは、パワーを失うことなく、アクティベーション関数を問題依存的に自由に選択できることを意味する。
論文 参考訳(メタデータ) (2024-05-22T15:29:45Z) - A comparison of rational and neural network based approximations [0.0]
有理近似,ニューラルネットワークおよびそれらの組み合わせを用いた関数近似の効率を比較する。
その結果、有理近似は、同じ数の決定変数を持つニューラルネットワークベースのアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-08T08:31:06Z) - Shallow neural network representation of polynomials [91.3755431537592]
d+1+sum_r=2Rbinomr+d-1d-1[binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1[binomr+d-1d-1d-1]binomr+d-1d-1d-1]
論文 参考訳(メタデータ) (2022-08-17T08:14:52Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Bagged Polynomial Regression and Neural Networks [0.0]
時系列とデータセットの回帰は、ニューラルネットワークと同じ関数クラスを近似することができる。
本稿では、ニューラルネットワークの魅力的な代替手段として、bagged regression (BPR) の使用を提案する。
論文 参考訳(メタデータ) (2022-05-17T19:55:56Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - On Polynomial Approximations for Privacy-Preserving and Verifiable ReLU
Networks [6.130998208629276]
次数2のアクティベーション関数を1次項で提案し、より優れたモデルに導出できることを実証的に示す。
提案関数は正方形関数と比較して最大10.4%精度が向上する。
論文 参考訳(メタデータ) (2020-11-11T03:32:22Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Deep Polynomial Neural Networks [77.70761658507507]
$Pi$Netsは拡張に基づいた関数近似の新しいクラスである。
$Pi$Netsは、画像生成、顔検証、および3Dメッシュ表現学習という3つの困難なタスクで、最先端の結果を生成する。
論文 参考訳(メタデータ) (2020-06-20T16:23:32Z) - A Corrective View of Neural Networks: Representation, Memorization and
Learning [26.87238691716307]
我々はニューラルネットワーク近似の補正機構を開発する。
ランダム・フィーチャー・レギュレーション(RF)における2層ニューラルネットワークは任意のラベルを記憶できることを示す。
また、3層ニューラルネットワークについても検討し、その補正機構がスムーズなラジアル関数に対する高速な表現率をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-01T20:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。