論文の概要: PrivSpike: Employing Homomorphic Encryption for Private Inference of Deep Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2510.03995v1
- Date: Sun, 05 Oct 2025 02:11:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.378134
- Title: PrivSpike: Employing Homomorphic Encryption for Private Inference of Deep Spiking Neural Networks
- Title(参考訳): PrivSpike: ディープスパイクニューラルネットワークのプライベート推論に同型暗号化を利用する
- Authors: Nges Brian Njungle, Eric Jahns, Milan Stojkov, Michel A. Kinsy,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、従来のディープラーニングアプローチに代わるエネルギー効率の高い代替手段として登場した。
PRIVSPIKEは、CKKS準同型暗号方式を用いてSNNのプライバシー保護推論フレームワークである。
コンシューマグレードのCPUでは、SNN LeNet-5モデルはMNISTで28秒、Neuromorphic MNISTで212秒の推論時間を達成した。
- 参考スコア(独自算出の注目度): 0.08749675983608168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has become a cornerstone of modern machine learning. It relies heavily on vast datasets and significant computational resources for high performance. This data often contains sensitive information, making privacy a major concern in deep learning. Spiking Neural Networks (SNNs) have emerged as an energy-efficient alternative to conventional deep learning approaches. Nevertheless, SNNs still depend on large volumes of data, inheriting all the privacy challenges of deep learning. Homomorphic encryption addresses this challenge by allowing computations to be performed on encrypted data, ensuring data confidentiality throughout the entire processing pipeline. In this paper, we introduce PRIVSPIKE, a privacy-preserving inference framework for SNNs using the CKKS homomorphic encryption scheme. PRIVSPIKE supports arbitrary depth SNNs and introduces two key algorithms for evaluating the Leaky Integrate-and-Fire activation function: (1) a polynomial approximation algorithm designed for high-performance SNN inference, and (2) a novel scheme-switching algorithm that optimizes precision at a higher computational cost. We evaluate PRIVSPIKE on MNIST, CIFAR-10, Neuromorphic MNIST, and CIFAR-10 DVS using models from LeNet-5 and ResNet-19 architectures, achieving encrypted inference accuracies of 98.10%, 79.3%, 98.1%, and 66.0%, respectively. On a consumer-grade CPU, SNN LeNet-5 models achieved inference times of 28 seconds on MNIST and 212 seconds on Neuromorphic MNIST. For SNN ResNet-19 models, inference took 784 seconds on CIFAR-10 and 1846 seconds on CIFAR-10 DVS. These results establish PRIVSPIKE as a viable and efficient solution for secure SNN inference, bridging the gap between energy-efficient deep neural networks and strong cryptographic privacy guarantees while outperforming prior encrypted SNN solutions.
- Abstract(参考訳): ディープラーニングは現代の機械学習の基盤となっている。
膨大なデータセットと、高性能な計算資源に大きく依存している。
このデータにはセンシティブな情報が含まれており、ディープラーニングにおいてプライバシーが大きな関心事となっている。
スパイキングニューラルネットワーク(SNN)は、従来のディープラーニングアプローチに代わるエネルギー効率の高い代替手段として登場した。
それでも、SNNは依然として大量のデータに依存しており、ディープラーニングのプライバシー上の課題をすべて継承している。
同型暗号化は、この課題に対処し、暗号化されたデータ上で計算を実行できるようにし、処理パイプライン全体を通してデータの機密性を確保する。
本稿では,CKKS同型暗号方式を用いたSNNのプライバシ保護型推論フレームワークであるPRIVSPIKEを紹介する。
PRIVSPIKEは任意の深度SNNをサポートし,(1)高性能SNN推論用に設計された多項式近似アルゴリズム,(2)高い計算コストで精度を最適化する新しいスキーム切替アルゴリズムである。
MNIST, CIFAR-10, Neuromorphic MNIST, CIFAR-10 DVSのPRIVSPIKEをLeNet-5およびResNet-19アーキテクチャのモデルを用いて評価し, それぞれ98.10%, 79.3%, 98.1%, 66.0%の暗号化推論精度を実現した。
コンシューマグレードのCPUでは、SNN LeNet-5モデルはMNISTで28秒、Neuromorphic MNISTで212秒の推論時間を達成した。
SNN ResNet-19では、推論はCIFAR-10で784秒、CIFAR-10 DVSで1846秒かかった。
これらの結果は、PRIVSPIKEを、エネルギー効率の高いディープニューラルネットワークと強力な暗号化プライバシ保証のギャップを埋めつつ、事前暗号化されたSNNソリューションを上回る、セキュアで効率的なSNN推論ソリューションとして確立する。
関連論文リスト
- S$^2$NN: Sub-bit Spiking Neural Networks [53.08060832135342]
スパイキングニューラルネットワーク(SNN)は、マシンインテリジェンスにエネルギー効率のよいパラダイムを提供する。
最近のバイナリSNNの進歩にもかかわらず、大規模ネットワークではストレージと計算の要求が相当に大きい。
1ビット未満の重みを表すサブビットスパイキングニューラルネットワーク(S$2$NNs)を提案する。
論文 参考訳(メタデータ) (2025-09-29T04:17:44Z) - NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural Networks [4.916646834691489]
スパイキングニューラルネットワーク(SNN)は人間の脳の振る舞いを模倣し、効率を改善しエネルギー消費を減らす。
ホモモルフィック暗号化(HE)は、暗号データを復号することなく計算を実行できるソリューションを提供する。
この研究では、Brakerski/Fan-Vercauteren(BFV)暗号化スキームを用いて、従来のディープニューラルネットワーク(DNN)とSNNを比較した。
論文 参考訳(メタデータ) (2023-08-10T15:26:35Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design [28.789702559193675]
スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークであるSPNNを提案する。
暗号の観点から,秘密共有とホモモルフィック暗号化という2種類の暗号技術を用いて提案する。
実世界のデータセット上で行った実験結果はSPNNの優位性を示している。
論文 参考訳(メタデータ) (2020-12-17T02:26:16Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。