論文の概要: On the Sensitivity of Firing Rate-Based Federated Spiking Neural Networks to Differential Privacy
- arxiv url: http://arxiv.org/abs/2602.12009v1
- Date: Thu, 12 Feb 2026 14:40:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.871241
- Title: On the Sensitivity of Firing Rate-Based Federated Spiking Neural Networks to Differential Privacy
- Title(参考訳): フィリングレートに基づくフェデレーションスパイクニューラルネットワークの差分プライバシーに対する感度について
- Authors: Luiz Pereira, Mirko Perkusich, Dalton Valadares, Kyller Gorgônio,
- Abstract要約: Federated Neuromorphic Learning (FNL)は、データを集中化せずにデバイス上でエネルギー効率とプライバシ保護の学習を可能にする。
本稿では,SNNにおける差分プライバシ(DP)メカニズム,特に勾配クリッピングとノイズ注入,摂動速度統計,およびこれらの摂動がFNL調整にどのように伝播されるかを分析する。
本研究は,プライバシ保護のためのFNLについて,特にプライバシ強度とレート依存調整のバランスについて,実用的なガイダンスを提供する。
- 参考スコア(独自算出の注目度): 0.07499722271664146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Neuromorphic Learning (FNL) enables energy-efficient and privacy-preserving learning on devices without centralizing data. However, real-world deployments require additional privacy mechanisms that can significantly alter training signals. This paper analyzes how Differential Privacy (DP) mechanisms, specifically gradient clipping and noise injection, perturb firing-rate statistics in Spiking Neural Networks (SNNs) and how these perturbations are propagated to rate-based FNL coordination. On a speech recognition task under non-IID settings, ablations across privacy budgets and clipping bounds reveal systematic rate shifts, attenuated aggregation, and ranking instability during client selection. Moreover, we relate these shifts to sparsity and memory indicators. Our findings provide actionable guidance for privacy-preserving FNL, specifically regarding the balance between privacy strength and rate-dependent coordination.
- Abstract(参考訳): フェデレートニューロモルフィック学習(FNL)は、データを集中化せずにデバイス上でエネルギー効率とプライバシ保護の学習を可能にする。
しかし、現実世界のデプロイメントには、トレーニングシグナルを著しく変更できる追加のプライバシメカニズムが必要です。
本稿では, 差分プライバシー(DP)機構, 特に勾配クリッピングとノイズ注入, スパイキングニューラルネットワーク(SNN)の摂動速度統計, およびこれらの摂動が, レートベースFNL調整にどのように伝播されるかを分析する。
非IID設定下での音声認識タスクでは、プライバシ予算とクリッピングバウンダリの短縮により、システマティックなレートシフト、減衰集約、クライアント選択時のランキング不安定が明らかになる。
さらに,これらの変化を,パリティとメモリインジケータに関連付ける。
本研究は,プライバシ保護のためのFNLについて,特にプライバシ強度とレート依存調整のバランスについて,実用的なガイダンスを提供する。
関連論文リスト
- Subgraph Federated Learning via Spectral Methods [52.40322201034717]
FedLapは、プライバシとスケーラビリティを確保しながら、ノード間の依存関係をキャプチャする新しいフレームワークである。
我々は、FedLapのプライバシを正式に分析し、プライバシを保存することを実証する。
論文 参考訳(メタデータ) (2025-10-29T16:22:32Z) - FedSDP: Explainable Differential Privacy in Federated Learning via Shapley Values [3.8717814352718105]
フェデレートラーニング(FL)は、参加者がトレーニングで協力しながらデータをローカルに保存することを可能にするが、プライバシ攻撃に弱いままである。
本稿では,プライバシコントリビューションに基づくノイズ注入を誘導するプライバシ保護機構であるFedSDPを提案する。
論文 参考訳(メタデータ) (2025-03-17T09:14:19Z) - Providing Differential Privacy for Federated Learning Over Wireless: A Cross-layer Framework [19.381425127772054]
Federated Learning(FL)は、エッジデバイスがローカルなトレーニングデータを維持することができる分散機械学習フレームワークである。
本稿では,分散化された動的電力制御により差分プライバシ(DP)を改善するOTA-FLの無線物理層(PHY)設計を提案する。
この適応は、異なる学習アルゴリズム間で設計の柔軟性と有効性を示しながら、プライバシに強く重点を置いています。
論文 参考訳(メタデータ) (2024-12-05T18:27:09Z) - Privacy-Preserving Individual-Level COVID-19 Infection Prediction via
Federated Graph Learning [33.77030569632993]
我々は、フェデレートラーニング(FL)とグラフニューラルネットワーク(GNN)に基づく、プライバシ保護のための個人レベルの感染予測フレームワークの開発に注力する。
本稿では,プライバシ保護のためのフェデレート・グラフ学習手法であるFalconを提案する。
我々の手法は最先端のアルゴリズムより優れており、ユーザのプライバシーを実際のプライバシ攻撃から保護することができる。
論文 参考訳(メタデータ) (2023-11-10T13:22:14Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。