論文の概要: PrivateSNN: Fully Privacy-Preserving Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2104.03414v1
- Date: Wed, 7 Apr 2021 22:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 03:08:01.754508
- Title: PrivateSNN: Fully Privacy-Preserving Spiking Neural Networks
- Title(参考訳): privatesnn: 完全にプライバシーを守るニューラルネットワーク
- Authors: Youngeun Kim, Yeshwanth Venkatesha and Priyadarshini Panda
- Abstract要約: PrivateSNNは、データセットに含まれる機密情報を漏洩することなく、トレーニング済みのANNモデルから低電力のスパイクニューラルネットワーク(SNN)を構築することを目指しています。
ANN-SNN変換プロセス中にネットワークが実際のトレーニングデータにアクセスする際に発生するデータ漏洩という2つのタイプのリーク問題に対処する。
データ漏洩問題に対処するため、事前訓練されたANNから合成画像を生成し、生成された画像を用いてANNをSNNに変換する。
我々は、暗号化された privatesnn は、大きな性能低下なしに実装できるだけでなく、かなりのエネルギーで実装できると観察する。
- 参考スコア(独自算出の注目度): 6.336941090564427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can we bring both privacy and energy-efficiency to a neural system on
edge devices? In this paper, we propose PrivateSNN, which aims to build
low-power Spiking Neural Networks (SNNs) from a pre-trained ANN model without
leaking sensitive information contained in a dataset. Here, we tackle two types
of leakage problems: 1) Data leakage caused when the networks access real
training data during an ANN-SNN conversion process. 2) Class leakage is the
concept of leakage caused when class-related features can be reconstructed from
network parameters. In order to address the data leakage issue, we generate
synthetic images from the pre-trained ANNs and convert ANNs to SNNs using
generated images. However, converted SNNs are still vulnerable with respect to
the class leakage since the weight parameters have the same (or scaled) value
with respect to ANN parameters. Therefore, we encrypt SNN weights by training
SNNs with a temporal spike-based learning rule. Updating weight parameters with
temporal data makes networks difficult to be interpreted in the spatial domain.
We observe that the encrypted PrivateSNN can be implemented not only without
the huge performance drop (less than ~5%) but also with significant
energy-efficiency gain (about x60 compared to the standard ANN). We conduct
extensive experiments on various datasets including CIFAR10, CIFAR100, and
TinyImageNet, highlighting the importance of privacy-preserving SNN training.
- Abstract(参考訳): エッジデバイス上のニューラルネットワークに対して、プライバシとエネルギー効率の両立にはどうすればよいのか?
本稿では,データセットに含まれる機密情報を漏洩することなく,トレーニング済みのANNモデルから低消費電力スパイキングニューラルネットワーク(SNN)を構築することを目的としたPrivateSNNを提案する。
本稿では,1)ネットワークが実際のトレーニングデータにアクセスする際に生じるデータ漏洩について,an-snn変換プロセス中に検討する。
2) クラスリークとは,ネットワークパラメータからクラス関連機能を再構築する際のリークの概念である。
データ漏洩問題に対処するため、事前訓練されたANNから合成画像を生成し、生成された画像を用いてANNをSNNに変換する。
しかし、重みパラメータがANNパラメータと同じ(またはスケールした)値を持つため、変換されたSNNはクラスリークに関してまだ脆弱である。
そこで,SNNの重み付けを時間的スパイクに基づく学習規則でトレーニングすることで暗号化する。
時間的データによる重みパラメータの更新は、空間領域でのネットワークの解釈を困難にする。
暗号化されたPrivateSNNは、性能低下(〜5%未満)を伴わずに実装できるだけでなく、エネルギー効率が向上する(標準のANNと比較してx60程度)。
我々は、CIFAR10、CIFAR100、TinyImageNetなどの様々なデータセットで広範な実験を行い、プライバシー保護SNNトレーニングの重要性を強調した。
関連論文リスト
- Are Neuromorphic Architectures Inherently Privacy-preserving? An Exploratory Study [3.4673556247932225]
人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,SNNが本質的により優れたプライバシを提供するかどうかを検討する。
学習アルゴリズム(勾配と進化の代理)、フレームワーク(snnTorch, TENNLab, LAVA)、およびパラメータがSNNプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-11-10T22:18:53Z) - NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Optimal ANN-SNN Conversion for High-accuracy and Ultra-low-latency
Spiking Neural Networks [22.532709609646066]
スパイキングニューラルネットワーク(SNN)は、低消費電力とニューロモルフィックハードウェアにおける高速推論の特徴的な特性により、大きな注目を集めている。
ディープSNNを得る最も効果的な方法として、ANN-SNN変換は大規模データセット上でのANNと同等のパフォーマンスを達成した。
本稿では,ANN-SNN変換誤差を理論的に解析し,SNNの活性化関数を推定する。
SNNとANNの変換誤差はゼロであり、高精度で超低レイテンシのSNNを実現することができることを示す。
論文 参考訳(メタデータ) (2023-03-08T03:04:53Z) - Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network [6.8125324121155275]
静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
論文 参考訳(メタデータ) (2022-11-19T12:49:22Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - Spiking Neural Networks with Single-Spike Temporal-Coded Neurons for
Network Intrusion Detection [6.980076213134383]
スパイキングニューラルネット(SNN)は、その強い生物楽観性と高いエネルギー効率のために興味深い。
しかし、その性能は従来のディープニューラルネットワーク(DNN)よりもはるかに遅れている。
論文 参考訳(メタデータ) (2020-10-15T14:46:18Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Training Deep Spiking Neural Networks [0.0]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)とニューロモルフィックハードウェアは、エネルギー効率を桁違いに高める可能性がある。
CIFAR100およびImagenetteオブジェクト認識データセット上で、ResNet50アーキテクチャでSNNをトレーニングすることが可能であることを示す。
訓練されたSNNは、類似のANNと比較して精度が劣るが、数桁の推論時間ステップを必要とする。
論文 参考訳(メタデータ) (2020-06-08T09:47:05Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。