論文の概要: A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural
Networks
- arxiv url: http://arxiv.org/abs/2308.05636v2
- Date: Thu, 12 Oct 2023 11:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 15:03:28.272296
- Title: A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural
Networks
- Title(参考訳): プライバシー保護型スパイクニューラルネットワークのための同型暗号化フレームワーク
- Authors: Farzad Nikfam, Raffaele Casaburi, Alberto Marchisio, Maurizio Martina
and Muhammad Shafique
- Abstract要約: スパイキングニューラルネットワーク(SNN)は人間の脳の振る舞いを模倣し、効率を改善しエネルギー消費を減らす。
ホモモルフィック暗号化(HE)は、暗号データを復号することなく計算を実行できるソリューションを提供する。
この研究では、Brakerski/Fan-Vercauteren(BFV)暗号化スキームを用いて、従来のディープニューラルネットワーク(DNN)とSNNを比較した。
- 参考スコア(独自算出の注目度): 5.274804664403783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is widely used today, especially through deep neural
networks (DNNs), however, increasing computational load and resource
requirements have led to cloud-based solutions. To address this problem, a new
generation of networks called Spiking Neural Networks (SNN) has emerged, which
mimic the behavior of the human brain to improve efficiency and reduce energy
consumption. These networks often process large amounts of sensitive
information, such as confidential data, and thus privacy issues arise.
Homomorphic encryption (HE) offers a solution, allowing calculations to be
performed on encrypted data without decrypting it. This research compares
traditional DNNs and SNNs using the Brakerski/Fan-Vercauteren (BFV) encryption
scheme. The LeNet-5 model, a widely-used convolutional architecture, is used
for both DNN and SNN models based on the LeNet-5 architecture, and the networks
are trained and compared using the FashionMNIST dataset. The results show that
SNNs using HE achieve up to 40% higher accuracy than DNNs for low values of the
plaintext modulus t, although their execution time is longer due to their
time-coding nature with multiple time-steps.
- Abstract(参考訳): 機械学習(ml)は現在、特にディープニューラルネットワーク(dnn)を通じて広く使われているが、計算負荷の増加とリソース要件がクラウドベースのソリューションにつながった。
この問題に対処するため、スパイキングニューラルネットワーク(SNN)と呼ばれる新しい世代のネットワークが登場し、人間の脳の振る舞いを模倣して効率を改善しエネルギー消費を減らす。
これらのネットワークはしばしば機密データなどの大量の機密情報を処理するため、プライバシー問題が発生する。
ホモモルフィック暗号化(HE)は、暗号データを復号することなく計算を実行できるソリューションを提供する。
本研究は,Brakerski/Fan-Vercauteren暗号方式を用いて従来のDNNとSNNを比較した。
広く使われている畳み込みアーキテクチャであるLeNet-5モデルは、LeNet-5アーキテクチャに基づいたDNNとSNNモデルの両方に使用され、ネットワークはFashionMNISTデータセットを使用してトレーニングされ、比較される。
以上の結果から,snsは平文モジュラスtの低値に対するdnnよりも最大40%高い精度を達成したが,複数の時間ステップを持つ時間符号化性により実行時間が長くなることがわかった。
関連論文リスト
- MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment [54.77943671991863]
MatchNASはDeep Neural Networksをモバイルデバイスに移植するための新しいスキームである。
ラベル付きデータと非ラベル付きデータの両方を用いて、大規模なネットワークファミリを最適化する。
そして、さまざまなハードウェアプラットフォーム用に調整されたネットワークを自動的に検索する。
論文 参考訳(メタデータ) (2024-02-21T04:43:12Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Low Latency Conversion of Artificial Neural Network Models to
Rate-encoded Spiking Neural Networks [11.300257721586432]
スパイキングニューラルネットワーク(SNN)は、リソース制約のあるアプリケーションに適している。
典型的なレートエンコードされたSNNでは、グローバルに固定された時間ウィンドウ内の一連のバイナリスパイクを使用してニューロンを発射する。
本研究の目的は、ANNを等価SNNに変換する際の精度を維持しつつ、これを削減することである。
論文 参考訳(メタデータ) (2022-10-27T08:13:20Z) - DPSNN: A Differentially Private Spiking Neural Network with Temporal
Enhanced Pooling [6.63071861272879]
新しい世代の人工知能ネットワークであるスパイキングニューラルネットワーク(SNN)は、多くの分野において重要な役割を果たす。
本稿では、差分プライバシ(DP)アルゴリズムをSNNと組み合わせ、微分プライベートスパイクニューラルネットワーク(DPSNN)を提案する。
SNNは離散スパイクシーケンスを使用して情報を送信し、DPが導入した勾配ノイズと組み合わせてSNNが強力なプライバシー保護を維持する。
論文 参考訳(メタデータ) (2022-05-24T05:27:53Z) - PrivateSNN: Fully Privacy-Preserving Spiking Neural Networks [6.336941090564427]
PrivateSNNは、データセットに含まれる機密情報を漏洩することなく、トレーニング済みのANNモデルから低電力のスパイクニューラルネットワーク(SNN)を構築することを目指しています。
ANN-SNN変換プロセス中にネットワークが実際のトレーニングデータにアクセスする際に発生するデータ漏洩という2つのタイプのリーク問題に対処する。
データ漏洩問題に対処するため、事前訓練されたANNから合成画像を生成し、生成された画像を用いてANNをSNNに変換する。
我々は、暗号化された privatesnn は、大きな性能低下なしに実装できるだけでなく、かなりのエネルギーで実装できると観察する。
論文 参考訳(メタデータ) (2021-04-07T22:14:02Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Spiking Neural Networks with Single-Spike Temporal-Coded Neurons for
Network Intrusion Detection [6.980076213134383]
スパイキングニューラルネット(SNN)は、その強い生物楽観性と高いエネルギー効率のために興味深い。
しかし、その性能は従来のディープニューラルネットワーク(DNN)よりもはるかに遅れている。
論文 参考訳(メタデータ) (2020-10-15T14:46:18Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - CodNN -- Robust Neural Networks From Coded Classification [27.38642191854458]
ディープニューラルネットワーク(Deep Neural Networks、DNN)は、現在進行中の情報革命における革命的な力である。
DNNは、敵対的であろうとランダムであろうと、ノイズに非常に敏感である。
これは、DNNのハードウェア実装と、自律運転のような重要なアプリケーションへの展開において、根本的な課題となる。
提案手法により,DNNのデータ層あるいは内部層は誤り訂正符号で符号化され,ノイズ下での計算が成功することが保証される。
論文 参考訳(メタデータ) (2020-04-22T17:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。