論文の概要: DPSNN: A Differentially Private Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2205.12718v1
- Date: Tue, 24 May 2022 05:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:31:25.548980
- Title: DPSNN: A Differentially Private Spiking Neural Network
- Title(参考訳): dpsnn: 差動的にプライベートなスパイクニューラルネットワーク
- Authors: Jihang Wang, Dongcheng Zhao, Guobin Shen, Qian Zhang, Yi Zeng
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、画像分類、オブジェクト検出、音声認識など、多くの領域において重要な役割を果たす。
この研究は、差分プライバシ(DP)アルゴリズムとSNNを組み合わせて、差分プライベートスパイキングニューラルネットワーク(DPSNN)を提案する。
- 参考スコア(独自算出の注目度): 6.63071861272879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy-preserving is a key problem for the machine learning algorithm.
Spiking neural network (SNN) plays an important role in many domains, such as
image classification, object detection, and speech recognition, but the study
on the privacy protection of SNN is urgently needed. This study combines the
differential privacy (DP) algorithm and SNN and proposes differentially private
spiking neural network (DPSNN). DP injects noise into the gradient, and SNN
transmits information in discrete spike trains so that our differentially
private SNN can maintain strong privacy protection while still ensuring high
accuracy. We conducted experiments on MNIST, Fashion-MNIST, and the face
recognition dataset Extended YaleB. When the privacy protection is improved,
the accuracy of the artificial neural network(ANN) drops significantly, but our
algorithm shows little change in performance. Meanwhile, we analyzed different
factors that affect the privacy protection of SNN. Firstly, the less precise
the surrogate gradient is, the better the privacy protection of the SNN.
Secondly, the Integrate-And-Fire (IF) neurons perform better than leaky
Integrate-And-Fire (LIF) neurons. Thirdly, a large time window contributes more
to privacy protection and performance.
- Abstract(参考訳): プライバシ保護は、機械学習アルゴリズムの重要な問題である。
スパイキングニューラルネットワーク(SNN)は、画像分類、オブジェクト検出、音声認識など多くの領域において重要な役割を果たすが、SNNのプライバシー保護に関する研究は緊急に必要である。
本研究では、差分プライバシー(DP)アルゴリズムとSNNを組み合わせて、差分プライベートスパイキングニューラルネットワーク(DPSNN)を提案する。
DPは勾配にノイズを注入し、SNNは離散スパイク列車で情報を送信し、我々の微分プライベートSNNは高い精度を確保しながら強力なプライバシー保護を維持することができる。
我々はMNIST、Fashion-MNIST、顔認識データセットExtended YaleBの実験を行った。
プライバシー保護が向上すると、人工知能ニューラルネットワーク(ANN)の精度は大幅に低下するが、我々のアルゴリズムは性能にほとんど変化がない。
一方、SNNのプライバシー保護に影響を与えるさまざまな要因を分析した。
第一に、サロゲートの勾配がより正確でなければなるほど、snのプライバシー保護は改善される。
第二に、統合・火(if)ニューロンはリークした統合・火(lif)ニューロンよりも優れた働きをする。
第3に、大きなタイムウィンドウは、プライバシ保護とパフォーマンスにさらに貢献する。
関連論文リスト
- Are Neuromorphic Architectures Inherently Privacy-preserving? An Exploratory Study [3.4673556247932225]
人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,SNNが本質的により優れたプライバシを提供するかどうかを検討する。
学習アルゴリズム(勾配と進化の代理)、フレームワーク(snnTorch, TENNLab, LAVA)、およびパラメータがSNNプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-11-10T22:18:53Z) - RSC-SNN: Exploring the Trade-off Between Adversarial Robustness and Accuracy in Spiking Neural Networks via Randomized Smoothing Coding [17.342181435229573]
スパイキングニューラルネットワーク(SNN)は、そのユニークな神経力学と低出力の性質により、広く注目を集めている。
以前の研究では、Poissonコーディングを持つSNNは、小規模データセット上のArtificial Neural Networks(ANN)よりも堅牢であることが実証されている。
この研究は理論上、SNNの固有の対向ロバスト性はポアソン符号に由来することを証明している。
論文 参考訳(メタデータ) (2024-07-29T15:26:15Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - A Homomorphic Encryption Framework for Privacy-Preserving Spiking Neural
Networks [5.274804664403783]
スパイキングニューラルネットワーク(SNN)は人間の脳の振る舞いを模倣し、効率を改善しエネルギー消費を減らす。
ホモモルフィック暗号化(HE)は、暗号データを復号することなく計算を実行できるソリューションを提供する。
この研究では、Brakerski/Fan-Vercauteren(BFV)暗号化スキームを用いて、従来のディープニューラルネットワーク(DNN)とSNNを比較した。
論文 参考訳(メタデータ) (2023-08-10T15:26:35Z) - Noise-Robust Deep Spiking Neural Networks with Temporal Information [22.278159848657754]
スパイクニューラルネットワーク(SNN)は、時間情報を持つエネルギー効率の良いニューラルネットワークとして登場した。
SNNはニューロモルフィックデバイスに優れた効率を示してきましたが、デバイスはノイズの影響を受けやすく、現実世界のアプリケーションに適用されることを妨げます。
本稿では,ニューラルコーディング法を用いた深部SNNに対するノイズの影響を検討し,時間情報を用いた雑音燃焼型深部SNNを提案する。
論文 参考訳(メタデータ) (2021-04-22T16:40:33Z) - Deep Serial Number: Computational Watermarking for DNN Intellectual
Property Protection [53.40245698216239]
DSN(Deep Serial Number)はディープニューラルネットワーク(DNN)に特化した透かしアルゴリズムである。
従来のソフトウェアIPの保護においてシリアル番号に着想を得て,DNNに埋め込まれたシリアル番号の最初の実装を提案する。
論文 参考訳(メタデータ) (2020-11-17T21:42:40Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。