論文の概要: On the Privacy-Preserving Properties of Spiking Neural Networks with Unique Surrogate Gradients and Quantization Levels
- arxiv url: http://arxiv.org/abs/2502.18623v1
- Date: Tue, 25 Feb 2025 20:14:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:59:37.503910
- Title: On the Privacy-Preserving Properties of Spiking Neural Networks with Unique Surrogate Gradients and Quantization Levels
- Title(参考訳): 特異なサロゲート勾配と量子化レベルを有するスパイキングニューラルネットワークのプライバシ保存特性について
- Authors: Ayana Moshruba, Shay Snyder, Hamed Poursiami, Maryam Parsa,
- Abstract要約: メンバーシップアタック(MIA)は、トレーニング中に特定のデータポイントが使用されたかどうかを推測するためにモデル応答を利用する。
以前の研究では、スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)よりもMIAに対するレジリエンスが高いことが示唆されていた。
このレジリエンスは、モデル応答と個々のトレーニングサンプルの相関を曖昧にする、非微分不可能なアクティベーションと固有精度に由来する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As machine learning models increasingly process sensitive data, understanding their vulnerability to privacy attacks is vital. Membership inference attacks (MIAs) exploit model responses to infer whether specific data points were used during training, posing a significant privacy risk. Prior research suggests that spiking neural networks (SNNs), which rely on event-driven computation and discrete spike-based encoding, exhibit greater resilience to MIAs than artificial neural networks (ANNs). This resilience stems from their non-differentiable activations and inherent stochasticity, which obscure the correlation between model responses and individual training samples. To enhance privacy in SNNs, we explore two techniques: quantization and surrogate gradients. Quantization, which reduces precision to limit information leakage, has improved privacy in ANNs. Given SNNs' sparse and irregular activations, quantization may further disrupt the activation patterns exploited by MIAs. We assess the vulnerability of SNNs and ANNs under weight and activation quantization across multiple datasets, using the attack model's receiver operating characteristic (ROC) curve area under the curve (AUC) metric, where lower values indicate stronger privacy, and evaluate the privacy-accuracy trade-off. Our findings show that quantization enhances privacy in both architectures with minimal performance loss, though full-precision SNNs remain more resilient than quantized ANNs. Additionally, we examine the impact of surrogate gradients on privacy in SNNs. Among five evaluated gradients, spike rate escape provides the best privacy-accuracy trade-off, while arctangent increases vulnerability to MIAs. These results reinforce SNNs' inherent privacy advantages and demonstrate that quantization and surrogate gradient selection significantly influence privacy-accuracy trade-offs in SNNs.
- Abstract(参考訳): 機械学習モデルが機密データをますます処理するようになると、プライバシ攻撃に対する脆弱性を理解することが不可欠だ。
メンバーシップ推論攻撃(MIA)は、トレーニング中に特定のデータポイントが使用されたかどうかを推測するためにモデル応答を利用する。
従来の研究では、イベント駆動計算と離散スパイクベースの符号化に依存するスパイクニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)よりもMIAに対するレジリエンスが高いことが示唆されていた。
このレジリエンスは、モデル応答と個々のトレーニングサンプルの相関を曖昧にする、微分不可能なアクティベーションと固有の確率性に由来する。
SNNのプライバシーを高めるために、量子化とシュロゲート勾配という2つの手法を探索する。
情報の漏洩を制限するために精度を下げる量子化は、ANNのプライバシーを改善した。
SNNのスパースと不規則な活性化を考えると、量子化はMIAによって利用される活性化パターンをさらに破壊する可能性がある。
重み付けされたSNNとANNの脆弱性を,アタックモデルの受信動作特性(ROC)曲線を用いて評価し,より低い値がより強いプライバシーを示す曲線(AUC)曲線を用いて評価し,プライバシと精度のトレードオフを評価する。
以上の結果から,量子化は両アーキテクチャのプライバシを最小限のパフォーマンス損失で向上させるが,完全精度のSNNは量子化ANNよりも回復力が高いことが示唆された。
さらに,SNNにおけるサロゲート勾配がプライバシに与える影響についても検討した。
5つの評価された勾配の中で、スパイクレートエスケープは最高のプライバシ・正確性トレードオフを提供する一方、アークタンジェントは脆弱性をMIAに増加させる。
これらの結果はSNN固有のプライバシーの優位性を強化し、量子化とシュロゲート勾配の選択がSNNのプライバシーと精度のトレードオフに大きな影響を及ぼすことを示した。
関連論文リスト
- On the Privacy Risks of Spiking Neural Networks: A Membership Inference Analysis [1.8029689470712593]
スパイキングニューラルネットワーク(SNN)は、現実のアプリケーションにおいて、そのエネルギー効率と堅牢性のためにますます研究されている。
本研究では,SNNのMIAに対する感受性について検討する。
MIAは、あるサンプルがトレーニングデータセットの一部であるかどうかを敵が判断しようとする、大きなプライバシー上の脅威である。
論文 参考訳(メタデータ) (2025-02-18T15:19:20Z) - Are Neuromorphic Architectures Inherently Privacy-preserving? An Exploratory Study [3.4673556247932225]
人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,SNNが本質的により優れたプライバシを提供するかどうかを検討する。
学習アルゴリズム(勾配と進化の代理)、フレームワーク(snnTorch, TENNLab, LAVA)、およびパラメータがSNNプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-11-10T22:18:53Z) - Membership Privacy Evaluation in Deep Spiking Neural Networks [32.42695393291052]
スパイキングニューラルネットワーク(SNN)は、非線形機能を持つニューロンを模倣して浮動小数点数を出力する。
本稿では,8つのMIAを考慮し,SNNのメンバシッププライバシを評価する。
ニューロモルフィックデータセットを用いてトレーニングした場合、SNNはANNよりも脆弱(最大攻撃精度は10%高い)であることが示される。
論文 参考訳(メタデータ) (2024-09-28T17:13:04Z) - BrainLeaks: On the Privacy-Preserving Properties of Neuromorphic Architectures against Model Inversion Attacks [3.4673556247932225]
従来の人工知能ニューラルネットワーク(ANN)は、機密データを漏洩する可能性のあるいくつかの攻撃に対して脆弱であることがわかった。
我々の研究は、スパイキングニューラルネットワーク(SNN)の差別化不可能な側面が、固有のプライバシー保護特性をもたらすという直感に動機づけられている。
我々は、SNNをターゲットとした、包括的に設計された新しい逆攻撃戦略を開発する。
論文 参考訳(メタデータ) (2024-02-01T03:16:40Z) - Low Latency of object detection for spikng neural network [3.404826786562694]
スパイキングニューラルネットワークは、バイナリスパイクの性質のため、エッジAIアプリケーションに適している。
本稿では,オブジェクト検出に特化して,高精度で低遅延なSNNを生成することに焦点を当てる。
論文 参考訳(メタデータ) (2023-09-27T10:26:19Z) - Threshold KNN-Shapley: A Linear-Time and Privacy-Friendly Approach to
Data Valuation [57.36638157108914]
データ評価は、機械学習(ML)モデルのトレーニングにおいて、個々のデータソースの有用性を定量化することを目的としている。
しかし、データのバリュエーションは、その重要性にもかかわらず、プライバシー上の問題にしばしば見過ごされがちだ。
本稿では,近年最も実践的なデータ評価手法であるKNN-Shapleyに着目し,これらの課題について考察する。
論文 参考訳(メタデータ) (2023-08-30T02:12:00Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。