論文の概要: Privacy in Federated Learning with Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2511.21181v1
- Date: Wed, 26 Nov 2025 08:55:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.026675
- Title: Privacy in Federated Learning with Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークによるフェデレーション学習におけるプライバシ
- Authors: Dogukan Aksu, Jesus Martinez del Rincon, Ihsen Alouani,
- Abstract要約: 組み込みAIとエッジAIの有力候補としてスパイキングニューラルネットワーク(SNN)が登場している。
各種データ領域にまたがるSNNにおける勾配漏れの総合的研究について述べる。
その結果, 事象駆動力学と代理段階学習の組み合わせにより, 勾配情報性が著しく低下することが示唆された。
- 参考スコア(独自算出の注目度): 5.715736614295801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have emerged as prominent candidates for embedded and edge AI. Their inherent low power consumption makes them far more efficient than conventional ANNs in scenarios where energy budgets are tightly constrained. In parallel, federated learning (FL) has become the prevailing training paradigm in such settings, enabling on-device learning while limiting the exposure of raw data. However, gradient inversion attacks represent a critical privacy threat in FL, where sensitive training data can be reconstructed directly from shared gradients. While this vulnerability has been widely investigated in conventional ANNs, its implications for SNNs remain largely unexplored. In this work, we present the first comprehensive empirical study of gradient leakage in SNNs across diverse data domains. SNNs are inherently non-differentiable and are typically trained using surrogate gradients, which we hypothesized would be less correlated with the original input and thus less informative from a privacy perspective. To investigate this, we adapt different gradient leakage attacks to the spike domain. Our experiments reveal a striking contrast with conventional ANNs: whereas ANN gradients reliably expose salient input content, SNN gradients yield noisy, temporally inconsistent reconstructions that fail to recover meaningful spatial or temporal structure. These results indicate that the combination of event-driven dynamics and surrogate-gradient training substantially reduces gradient informativeness. To the best of our knowledge, this work provides the first systematic benchmark of gradient inversion attacks for spiking architectures, highlighting the inherent privacy-preserving potential of neuromorphic computation.
- Abstract(参考訳): 組み込みAIとエッジAIの有力候補としてスパイキングニューラルネットワーク(SNN)が登場している。
その固有の低消費電力は、エネルギー予算が厳しく制約されたシナリオにおいて、従来のANNよりもはるかに効率的である。
並行して、フェデレーション・ラーニング(FL)は、そうした設定において一般的な訓練パラダイムとなり、生データの露出を制限しながらデバイス上での学習を可能にしている。
しかし、勾配反転攻撃はFLにおける重要なプライバシー上の脅威であり、機密性のあるトレーニングデータを共有勾配から直接再構築することができる。
この脆弱性は従来のANNで広く研究されているが、SNNに対する影響は未解明のままである。
本研究では,SNNにおける各種データ領域にまたがる勾配漏れの総合的研究について述べる。
SNNは本質的に微分不可能であり、通常、代理勾配を用いて訓練される。
これを調べるために、スパイク領域に異なる勾配リーク攻撃を適用する。
実験の結果,従来のANNと顕著な対比が得られた。ANN勾配は有意な入力内容を確実に露呈するのに対して,SNN勾配は,有意な空間的・時間的構造を回復できない時間的不整合な再構成を生じる。
これらの結果から,事象駆動力学と代理段階学習の組み合わせにより,勾配情報性が著しく低下することが示唆された。
我々の知る限り、この研究は、神経型計算の固有のプライバシー保護の可能性を強調し、スパイクアーキテクチャーに対する勾配反転攻撃の最初の体系的なベンチマークを提供する。
関連論文リスト
- Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control [59.65431931190187]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で低レイテンシかつエネルギー効率の意思決定を提供する。
連続制御のためのほとんどの連続制御アルゴリズムは、人工ニューラルネットワーク(ANN)のために設計されている。
このミスマッチはSNNのトレーニングを不安定にし、性能を劣化させる。
離散SNNと連続制御アルゴリズムのギャップを埋める新しいプロキシターゲットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:08:03Z) - Directly Training Temporal Spiking Neural Network with Sparse Surrogate Gradient [8.516243389583702]
脳にインスパイアされたスパイキングニューラルネットワーク(SNN)は、イベントベースのコンピューティングとエネルギー効率の良い機能によって、多くの注目を集めている。
本研究では,SNNの一般化能力を向上させるため,MSG(Masked Surrogate Gradients)を提案する。
論文 参考訳(メタデータ) (2024-06-28T04:21:32Z) - GI-NAS: Boosting Gradient Inversion Attacks Through Adaptive Neural Architecture Search [52.27057178618773]
グラディエント・インバージョン・アタック (Gradient Inversion Attacks) は、Federated Learning (FL) システムの伝達勾配を反転させ、ローカルクライアントの機密データを再構築する。
勾配反転法の大半は明示的な事前知識に大きく依存しており、現実的なシナリオでは利用できないことが多い。
本稿では,ニューラルネットワークを適応的に探索し,ニューラルネットワークの背後にある暗黙の先行情報をキャプチャするニューラルアーキテクチャ探索(GI-NAS)を提案する。
論文 参考訳(メタデータ) (2024-05-31T09:29:43Z) - Temporal Efficient Training of Spiking Neural Network via Gradient
Re-weighting [29.685909045226847]
脳にインスパイアされたスパイクニューロンネットワーク(SNN)は、事象駆動的でエネルギー効率のよい特徴から、広く研究の関心を集めている。
シュロゲート勾配による現在の直接訓練手法は、一般化性に乏しいSNNに結果をもたらす。
SGによる勾配降下時の運動量の減少を補うための時間的効率訓練(TET)手法を導入する。
論文 参考訳(メタデータ) (2022-02-24T08:02:37Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Exploring Adversarial Attack in Spiking Neural Networks with
Spike-Compatible Gradient [29.567395824544437]
我々は,教師付きアルゴリズムによって訓練されたSNNに対する敵攻撃手法を構築した。
この研究は、SNN攻撃で何が起こるかを明らかにするのに役立ち、SNNモデルとニューロモルフィックデバイスのセキュリティに関するさらなる研究を刺激する可能性がある。
論文 参考訳(メタデータ) (2020-01-01T18:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。