論文の概要: Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE
- arxiv url: http://arxiv.org/abs/2309.09025v1
- Date: Sat, 16 Sep 2023 15:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 17:52:37.592539
- Title: Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE
- Title(参考訳): FHEを用いた高効率プライバシ保存畳み込みニューラルネットワーク
- Authors: Pengbo Li, Huifang Huang, Ting Gao, Jin Guo, Jinqiao Duan
- Abstract要約: ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
- 参考スコア(独自算出の注目度): 1.437446768735628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of AI technology, we have witnessed numerous
innovations and conveniences. However, along with these advancements come
privacy threats and risks. Fully Homomorphic Encryption (FHE) emerges as a key
technology for privacy-preserving computation, enabling computations while
maintaining data privacy. Nevertheless, FHE has limitations in processing
continuous non-polynomial functions as it is restricted to discrete integers
and supports only addition and multiplication. Spiking Neural Networks (SNNs)
operate on discrete spike signals, naturally aligning with the properties of
FHE. In this paper, we present a framework called FHE-DiCSNN. This framework is
based on the efficient TFHE scheme and leverages the discrete properties of
SNNs to achieve high prediction performance on ciphertexts. Firstly, by
employing bootstrapping techniques, we successfully implement computations of
the Leaky Integrate-and-Fire neuron model on ciphertexts. Through
bootstrapping, we can facilitate computations for SNNs of arbitrary depth. This
framework can be extended to other spiking neuron models, providing a novel
framework for the homomorphic evaluation of SNNs. Secondly, inspired by CNNs,
we adopt convolutional methods to replace Poisson encoding. This not only
enhances accuracy but also mitigates the issue of prolonged simulation time
caused by random encoding. Furthermore, we employ engineering techniques to
parallelize the computation of bootstrapping, resulting in a significant
improvement in computational efficiency. Finally, we evaluate our model on the
MNIST dataset. Experimental results demonstrate that, with the optimal
parameter configuration, FHE-DiCSNN achieves an accuracy of 97.94% on
ciphertexts, with a loss of only 0.53% compared to the original network's
accuracy of 98.47%. Moreover, each prediction requires only 0.75 seconds of
computation time
- Abstract(参考訳): AI技術の急速な発展により、私たちは多くのイノベーションと利便性を目の当たりにした。
しかし、これらの進歩とともに、プライバシーの脅威とリスクが伴う。
完全な準同型暗号化(fhe)は、データのプライバシを維持しながら計算を可能にするプライバシ保存計算の鍵技術として現れる。
それでも、FHEは離散整数に制限される連続非多項式関数の処理に制限があり、加算と乗法のみをサポートする。
スパイキングニューラルネットワーク(SNN)は離散スパイク信号で動作し、FHEの特性と自然に一致している。
本稿では,FHE-DiCSNNというフレームワークを提案する。
このフレームワークは、効率的なTFHE方式に基づいており、SNNの離散特性を利用して、暗号文上で高い予測性能を実現する。
まず,ブートストラップ技術を用いて,暗号文上でのLeaky Integrate-and-Fireニューロンモデルの計算を成功させる。
ブートストラップにより任意の深さのSNNの計算を容易にすることができる。
この枠組みは他のスパイクニューロンモデルにも拡張することができ、SNNの同型評価のための新しい枠組みを提供する。
第二に、CNNにインスパイアされた私たちは、Poissonエンコーディングを置き換えるために畳み込み方式を採用しています。
これは精度を高めるだけでなく、ランダムエンコーディングによる長期シミュレーション時間の問題を軽減する。
さらに,ブートストラップの計算を並列化する工学的手法を用いることにより,計算効率が大幅に向上した。
最後に,MNISTデータセットを用いたモデルの評価を行った。
実験の結果、fhe-dicsnnは最適なパラメータ構成で暗号文の精度97.94%を達成し、元のネットワークの精度98.47%に比べて0.53%の損失しか得られなかった。
さらに、各予測は計算時間0.75秒しか必要としない。
関連論文リスト
- Toward Practical Privacy-Preserving Convolutional Neural Networks Exploiting Fully Homomorphic Encryption [11.706881389387242]
準同型暗号化(FHE)は、プライベート推論(PI)を実現するための実行可能なアプローチである
FHEのCNNの実装は、主に計算とメモリのオーバーヘッドが大きいため、大きなハードルに直面している。
本稿では、GPU/ASICアクセラレーション、効率的なアクティベーション機能、最適化されたパッキングスキームを含む最適化セットを提案する。
論文 参考訳(メタデータ) (2023-10-25T10:24:35Z) - Timing-Based Backpropagation in Spiking Neural Networks Without
Single-Spike Restrictions [2.8360662552057323]
スパイキングニューラルネットワーク(SNN)のトレーニングのための新しいバックプロパゲーションアルゴリズムを提案する。
シングルスパイク制限なしで、個々のニューロンの相対多重スパイクタイミングに情報をエンコードする。
論文 参考訳(メタデータ) (2022-11-29T11:38:33Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Spike time displacement based error backpropagation in convolutional
spiking neural networks [0.6193838300896449]
本稿では,STiDi-BPアルゴリズムを拡張し,より深く,畳み込み型アーキテクチャに応用する。
MNISTとFashion-MNISTの2つのベンチマークに基づく画像分類タスクの評価結果から,このアルゴリズムが深部SNNに適用可能であることを確認した。
後進パスで更新される実数値重みと、フィードフォワードプロセスで使用される2値重みと、その記号と2値重みの2つの重みを持つ畳み込みSNNを考える。
論文 参考訳(メタデータ) (2021-08-31T05:18:59Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design [28.789702559193675]
スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークであるSPNNを提案する。
暗号の観点から,秘密共有とホモモルフィック暗号化という2種類の暗号技術を用いて提案する。
実世界のデータセット上で行った実験結果はSPNNの優位性を示している。
論文 参考訳(メタデータ) (2020-12-17T02:26:16Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。