論文の概要: The Robustness of Spiking Neural Networks in Federated Learning with Compression Against Non-omniscient Byzantine Attacks
- arxiv url: http://arxiv.org/abs/2501.03306v1
- Date: Mon, 06 Jan 2025 18:09:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:49:43.628985
- Title: The Robustness of Spiking Neural Networks in Federated Learning with Compression Against Non-omniscient Byzantine Attacks
- Title(参考訳): 非正統的ビザンチン攻撃に対する圧縮によるフェデレーション学習におけるスパイクニューラルネットワークのロバスト性
- Authors: Manh V. Nguyen, Liang Zhao, Bobin Deng, Shaoen Wu,
- Abstract要約: FL装置にTop-Kappaスペーシフィケーションを簡易に統合することで,SNNモデルの利点を活用できることを示す。
中でも注目すべきは、致命的なMinMax攻撃下でのFL-SNNトレーニングにおいて、およそ40%の精度向上があったことです。
- 参考スコア(独自算出の注目度): 6.415018434223155
- License:
- Abstract: Spiking Neural Networks (SNNs), which offer exceptional energy efficiency for inference, and Federated Learning (FL), which offers privacy-preserving distributed training, is a rising area of interest that highly beneficial towards Internet of Things (IoT) devices. Despite this, research that tackles Byzantine attacks and bandwidth limitation in FL-SNNs, both poses significant threats on model convergence and training times, still remains largely unexplored. Going beyond proposing a solution for both of these problems, in this work we highlight the dual benefits of FL-SNNs, against non-omniscient Byzantine adversaries (ones that restrict attackers access to local clients datasets), and greater communication efficiency, over FL-ANNs. Specifically, we discovered that a simple integration of Top-\k{appa} sparsification into the FL apparatus can help leverage the advantages of the SNN models in both greatly reducing bandwidth usage and significantly boosting the robustness of FL training against non-omniscient Byzantine adversaries. Most notably, we saw a massive improvement of roughly 40% accuracy gain in FL-SNNs training under the lethal MinMax attack
- Abstract(参考訳): 推論に例外的なエネルギー効率を提供するSpking Neural Networks(SNN)と、プライバシ保護のための分散トレーニングを提供するFederated Learning(FL)は、IoT(Internet of Things)デバイスに非常にメリットのある、関心の高まりする領域である。
これにもかかわらず、FL-SNNのビザンティン攻撃と帯域制限に取り組む研究は、どちらもモデル収束とトレーニング時間に重大な脅威をもたらすが、いまだに未解明のままである。
これら2つの問題に対するソリューションの提案を超えて、この研究では、FL-SNNの二重の利点、非正統なビザンツの敵(攻撃者がローカルクライアントのデータセットにアクセスすることを制限するもの)、およびFL-ANNよりも通信効率の向上を強調します。
具体的には、Top-\k{appa}スペーシフィケーションをFL機器に統合することで、SNNモデルの利点を生かし、帯域使用量を大幅に削減し、非正統的ビザンツ人に対するFLトレーニングの堅牢性を大幅に向上させることを発見した。
中でも注目すべきは、致命的なMinMax攻撃下でのFL-SNNトレーニングにおいて、およそ40%の精度向上が達成されたことです。
関連論文リスト
- The Robustness of Spiking Neural Networks in Communication and its Application towards Network Efficiency in Federated Learning [6.9569682335746235]
スパイキングニューラルネットワーク(SNN)は最近、組み込みデバイスでのオンチップ学習に多大な関心を集めている。
本稿では,フェデレートラーニングにおける雑音の多いコミュニケーション下でのSNNの本質的ロバスト性について検討する。
FLトレーニングにおける帯域幅の削減を目的とした,TopKスパシフィケーションを用いた新しいフェデレートラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-19T13:37:18Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - Time-Distributed Backdoor Attacks on Federated Spiking Learning [14.314066620468637]
本稿では,ニューロモルフィックデータを用いたバックドア攻撃に対するスパイクニューラルネットワーク(SNN)とフェデレーション学習(FL)の脆弱性について検討する。
我々はSNNやFLに合わせた新たな攻撃戦略を開発し、悪意のあるデバイスにバックドアトリガーを時間的および時間的に配布する。
本研究は、SNNとFLの展開において、堅牢なセキュリティ対策の必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-02-05T10:54:17Z) - Federated Learning in UAV-Enhanced Networks: Joint Coverage and
Convergence Time Optimization [16.265792031520945]
フェデレートラーニング(FL)には、ローカルデータを転送することなく、共有モデルを協調的にトレーニングする複数のデバイスが含まれる。
FLは通信のオーバーヘッドを減らし、エネルギー資源の少ないUAV強化無線ネットワークにおいて有望な学習方法となる。
この可能性にもかかわらず、UAVに強化されたネットワークにFLを実装することは困難であり、カバー範囲を最大化する従来のUAV配置手法はFL遅延を増大させる。
論文 参考訳(メタデータ) (2023-08-31T17:50:54Z) - Boosting Adversarial Robustness From The Perspective of Effective Margin
Regularization [58.641705224371876]
ディープニューラルネットワーク(DNN)の敵対的脆弱性は、ここ数年で積極的に研究されている。
本稿では,クロスエントロピー損失のスケール変動特性について検討する。
提案した有効マージン正則化(EMR)は,大きな有効マージンを学習し,標準トレーニングと対向トレーニングの両方において対向的ロバスト性を高めることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:16:56Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。