論文の概要: SFedHIFI: Fire Rate-Based Heterogeneous Information Fusion for Spiking Federated Learning
- arxiv url: http://arxiv.org/abs/2603.14956v1
- Date: Mon, 16 Mar 2026 08:13:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.14982
- Title: SFedHIFI: Fire Rate-Based Heterogeneous Information Fusion for Spiking Federated Learning
- Title(参考訳): SFedHIFI:フェデレーション学習のための火災速度に基づく異種情報融合
- Authors: Ran Tao, Qiugang Zhan, Shantian Yang, Xiurui Xie, Qi Tian, Guisong Liu,
- Abstract要約: スパイキングフェデレートラーニング(SFL)はスパイキングニューラルネットワーク(SNN)のエネルギー効率で広く研究されている。
SFedHIFIは,火災速度に基づく異種情報融合を用いた新しいスパイキングフェデレート学習フレームワークである。
- 参考スコア(独自算出の注目度): 52.27042894010677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Federated Learning (SFL) has been widely studied with the energy efficiency of Spiking Neural Networks (SNNs). However, existing SFL methods require model homogeneity and assume all clients have sufficient computational resources, resulting in the exclusion of some resource-constrained clients. To address the prevalent system heterogeneity in real-world scenarios, enabling heterogeneous SFL systems that allow clients to adaptively deploy models of different scales based on their local resources is crucial. To this end, we introduce SFedHIFI, a novel Spiking Federated Learning framework with Fire Rate-Based Heterogeneous Information Fusion. Specifically, SFedHIFI employs channel-wise matrix decomposition to deploy SNN models of adaptive complexity on clients with heterogeneous resources. Building on this, the proposed heterogeneous information fusion module enables cross-scale aggregation among models of different widths, thereby enhancing the utilization of diverse local knowledge. Extensive experiments on three public benchmarks demonstrate that SFedHIFI can effectively enable heterogeneous SFL, consistently outperforming all three baseline methods. Compared with ANN-based FL, it achieves significant energy savings with only a marginal trade-off in accuracy.
- Abstract(参考訳): スパイキングフェデレートラーニング(SFL)は、スパイキングニューラルネットワーク(SNN)のエネルギー効率について広く研究されている。
しかし、既存のSFL法はモデル均質性を必要とし、全てのクライアントが十分な計算資源を持っていると仮定し、リソース制約のあるクライアントを除外する。
実世界のシナリオにおける一般的なシステム不均一性に対処するためには、クライアントがローカルリソースに基づいて異なるスケールのモデルを適応的にデプロイできる異種SFLシステムを実現することが不可欠である。
この目的のために,ファイアレートに基づく異種情報融合によるスパイキングフェデレーション学習フレームワークであるSFedHIFIを紹介した。
具体的には、SFedHIFIはチャネルワイズ行列分解を用いて、不均一なリソースを持つクライアントに適応的複雑性のSNNモデルをデプロイする。
これに基づいて、提案した異種情報融合モジュールは、異なる幅のモデル間のクロススケールアグリゲーションを可能にし、多様なローカル知識の利用を向上する。
3つの公開ベンチマークの大規模な実験は、SFedHIFIが効果的に不均一なSFLを有効化できることを示し、3つのベースライン法を一貫して上回っている。
ANNベースのFLと比較すると、精度の限界トレードオフだけでかなりの省エネを実現している。
関連論文リスト
- Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - HtFLlib: A Comprehensive Heterogeneous Federated Learning Library and Benchmark [24.129748996689955]
従来のフェデレートラーニング(FL)は同種モデルのみをサポートする。
Heterogeneous Federated Learning (HtFL) 法は多種多様な異種モデル間の協調を可能にする。
異種連携学習ライブラリ(HtFLlib)について紹介する。
論文 参考訳(メタデータ) (2025-06-04T13:44:00Z) - FedSKD: Aggregation-free Model-heterogeneous Federated Learning using Multi-dimensional Similarity Knowledge Distillation [7.944298319589845]
フェデレートラーニング(FL)は、直接データを共有することなく、プライバシー保護のための協調モデルトレーニングを可能にする。
MHFL(Model-heterogeneous FL)は、クライアントが計算資源やアプリケーション固有のニーズに合わせて、不均一なアーキテクチャでパーソナライズされたモデルを訓練することを可能にする。
ピアツーピア(P2P)FLはサーバ依存を除去するが、モデルドリフトと知識の希釈に悩まされ、不均一な設定での有効性が制限される。
ラウンドロビンモデル循環による直接知識交換を容易にする新しいMHFLフレームワークであるFedSKDを提案する。
論文 参考訳(メタデータ) (2025-03-23T05:33:10Z) - FedMHO: Heterogeneous One-Shot Federated Learning Towards Resource-Constrained Edge Devices [12.08958206272527]
フェデレートラーニング(FL)はエッジコンピューティングのシナリオにおいてますます採用され、多くの異種クライアントが制約や十分なリソースの下で運用されている。
ワンショットFLは通信オーバーヘッドを軽減するための有望なアプローチとして登場し、モデルヘテロジニアスFLはクライアント間の多様なコンピューティングリソースの問題を解決する。
本稿では,リソースに制約のあるデバイス上で,リソースに十分なクライアントと軽量な生成モデルに対して,詳細な分類モデルを活用するFedMHOという新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-12T15:54:56Z) - FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [55.0981921695672]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - FedLPS: Heterogeneous Federated Learning for Multiple Tasks with Local
Parameter Sharing [14.938531944702193]
局所異種共有を用いたフェデレーション学習(FedLPS)を提案する。
FedLPSは転送学習を使用して、ローカルモデルを共有エンコーダとタスク固有のエンコーダに分割することで、複数のタスクをひとつのデバイスにデプロイする。
FedLPSは最先端(SOTA)のFLフレームワークを最大4.88%上回り、計算資源消費量を21.3%減らす。
論文 参考訳(メタデータ) (2024-02-13T16:30:30Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。