論文の概要: Are Neuromorphic Architectures Inherently Privacy-preserving? An Exploratory Study
- arxiv url: http://arxiv.org/abs/2411.06613v1
- Date: Sun, 10 Nov 2024 22:18:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:13:02.955624
- Title: Are Neuromorphic Architectures Inherently Privacy-preserving? An Exploratory Study
- Title(参考訳): ニューロモルフィックアーキテクチャは本質的にプライバシ保護か? : 探索的研究
- Authors: Ayana Moshruba, Ihsen Alouani, Maryam Parsa,
- Abstract要約: 人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,SNNが本質的により優れたプライバシを提供するかどうかを検討する。
学習アルゴリズム(勾配と進化の代理)、フレームワーク(snnTorch, TENNLab, LAVA)、およびパラメータがSNNプライバシに与える影響を分析する。
- 参考スコア(独自算出の注目度): 3.4673556247932225
- License:
- Abstract: While machine learning (ML) models are becoming mainstream, especially in sensitive application areas, the risk of data leakage has become a growing concern. Attacks like membership inference (MIA) have shown that trained models can reveal sensitive data, jeopardizing confidentiality. While traditional Artificial Neural Networks (ANNs) dominate ML applications, neuromorphic architectures, specifically Spiking Neural Networks (SNNs), are emerging as promising alternatives due to their low power consumption and event-driven processing, akin to biological neurons. Privacy in ANNs is well-studied; however, little work has explored the privacy-preserving properties of SNNs. This paper examines whether SNNs inherently offer better privacy. Using MIAs, we assess the privacy resilience of SNNs versus ANNs across diverse datasets. We analyze the impact of learning algorithms (surrogate gradient and evolutionary), frameworks (snnTorch, TENNLab, LAVA), and parameters on SNN privacy. Our findings show that SNNs consistently outperform ANNs in privacy preservation, with evolutionary algorithms offering additional resilience. For instance, on CIFAR-10, SNNs achieve an AUC of 0.59, significantly lower than ANNs' 0.82, and on CIFAR-100, SNNs maintain an AUC of 0.58 compared to ANNs' 0.88. Additionally, we explore the privacy-utility trade-off with Differentially Private Stochastic Gradient Descent (DPSGD), finding that SNNs sustain less accuracy loss than ANNs under similar privacy constraints.
- Abstract(参考訳): 機械学習(ML)モデルは、特に機密性の高いアプリケーション領域で主流になりつつあるが、データ漏洩のリスクが増大している。
メンバーシップ推論(MIA)のような攻撃は、トレーニングされたモデルが機密データを暴露し、機密性を脅かす可能性があることを示している。
従来のニューラルネットワーク(ANN)がMLアプリケーションを支配しているのに対して、神経型アーキテクチャ、特にスパイキングニューラルネットワーク(SNN)は、生物学的ニューロンに似た低消費電力とイベント駆動処理のために、有望な代替手段として現れている。
ANNのプライバシはよく研究されているが、SNNのプライバシ保護特性についてはほとんど研究されていない。
本稿では,SNNが本質的により優れたプライバシを提供するかどうかを検討する。
MIAを用いて、多様なデータセットにわたるSNNとANNのプライバシーレジリエンスを評価する。
学習アルゴリズム(勾配と進化の代理)、フレームワーク(snnTorch, TENNLab, LAVA)、およびパラメータがSNNプライバシに与える影響を分析する。
我々の研究結果によると、SNNはプライバシー保護において一貫してANNよりも優れており、進化的アルゴリズムはさらなるレジリエンスを提供する。
例えば、CIFAR-10 では、SNN は ANN の 0.82 よりもかなり低い 0.59 の AUC を達成し、CIFAR-100 では、SNN は ANN の 0.88 よりも 0.58 の AUC を維持できる。
さらに、SNNが同様のプライバシー制約の下でのANNよりも精度の低下を抑えることを発見したDPSGD(Fariially Private Stochastic Gradient Descent)によるプライバシーユーティリティトレードオフについても検討する。
関連論文リスト
- Membership Privacy Evaluation in Deep Spiking Neural Networks [32.42695393291052]
スパイキングニューラルネットワーク(SNN)は、非線形機能を持つニューロンを模倣して浮動小数点数を出力する。
本稿では,8つのMIAを考慮し,SNNのメンバシッププライバシを評価する。
ニューロモルフィックデータセットを用いてトレーニングした場合、SNNはANNよりも脆弱(最大攻撃精度は10%高い)であることが示される。
論文 参考訳(メタデータ) (2024-09-28T17:13:04Z) - NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - SPENSER: Towards a NeuroEvolutionary Approach for Convolutional Spiking
Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率と生物学的妥当性から近年関心を集めている。
SNNの最良の学習アルゴリズムについては合意がない。
本稿では,DENSERに基づくSNN生成フレームワークであるSPENSERを提案する。
論文 参考訳(メタデータ) (2023-05-18T14:06:37Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - DPSNN: A Differentially Private Spiking Neural Network with Temporal
Enhanced Pooling [6.63071861272879]
新しい世代の人工知能ネットワークであるスパイキングニューラルネットワーク(SNN)は、多くの分野において重要な役割を果たす。
本稿では、差分プライバシ(DP)アルゴリズムをSNNと組み合わせ、微分プライベートスパイクニューラルネットワーク(DPSNN)を提案する。
SNNは離散スパイクシーケンスを使用して情報を送信し、DPが導入した勾配ノイズと組み合わせてSNNが強力なプライバシー保護を維持する。
論文 参考訳(メタデータ) (2022-05-24T05:27:53Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Toward Robust Spiking Neural Network Against Adversarial Perturbation [22.56553160359798]
スパイキングニューラルネットワーク(SNN)は、現実の効率クリティカルなアプリケーションにますます多くデプロイされている。
研究者はすでに、SNNを敵の例で攻撃できることを実証している。
我々の知る限りでは、これはSNNの堅牢なトレーニングに関する最初の分析である。
論文 参考訳(メタデータ) (2022-04-12T21:26:49Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - PrivateSNN: Fully Privacy-Preserving Spiking Neural Networks [6.336941090564427]
PrivateSNNは、データセットに含まれる機密情報を漏洩することなく、トレーニング済みのANNモデルから低電力のスパイクニューラルネットワーク(SNN)を構築することを目指しています。
ANN-SNN変換プロセス中にネットワークが実際のトレーニングデータにアクセスする際に発生するデータ漏洩という2つのタイプのリーク問題に対処する。
データ漏洩問題に対処するため、事前訓練されたANNから合成画像を生成し、生成された画像を用いてANNをSNNに変換する。
我々は、暗号化された privatesnn は、大きな性能低下なしに実装できるだけでなく、かなりのエネルギーで実装できると観察する。
論文 参考訳(メタデータ) (2021-04-07T22:14:02Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。