論文の概要: CA-HFP: Curvature-Aware Heterogeneous Federated Pruning with Model Reconstruction
- arxiv url: http://arxiv.org/abs/2603.12591v1
- Date: Fri, 13 Mar 2026 02:45:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.858766
- Title: CA-HFP: Curvature-Aware Heterogeneous Federated Pruning with Model Reconstruction
- Title(参考訳): CA-HFP: モデル再構成による曲率を考慮した不均一フェデレートプルーニング
- Authors: Gang Hu, Yinglei Teng, Pengfei Wu, Shijun Ma,
- Abstract要約: 不均一エッジデバイス上でのフェデレーション学習は、アグリゲーション互換性と安定した収束を維持しながらパーソナライズされた圧縮を必要とする。
本稿では,各クライアントが構成されたデバイス固有のプルーニングを,曲率インフォームドの重要度スコアでガイドできる実用的フレームワークCA-HFPを提案する。
- 参考スコア(独自算出の注目度): 6.817747681821888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning on heterogeneous edge devices requires personalized compression while preserving aggregation compatibility and stable convergence. We present Curvature-Aware Heterogeneous Federated Pruning (CA-HFP), a practical framework that enables each client perform structured, device-specific pruning guided by a curvature-informed significance score, and subsequently maps its compact submodel back into a common global parameter space via a lightweight reconstruction. We derive a convergence bound for federated optimization with multiple local SGD steps that explicitly accounts for local computation, data heterogeneity, and pruning-induced perturbations; from which a principled loss-based pruning criterion is derived. Extensive experiments on FMNIST, CIFAR-10, and CIFAR-100 using VGG and ResNet architectures under varying degrees of data heterogeneity demonstrate that CA-HFP preserves model accuracy while significantly reducing per-client computation and communication costs, outperforming standard federated training and existing pruning-based baselines.
- Abstract(参考訳): 不均一エッジデバイス上でのフェデレーション学習は、アグリゲーション互換性と安定した収束を維持しながらパーソナライズされた圧縮を必要とする。
本稿では、各クライアントが構成されたデバイス固有のプルーニングを曲率インフォームドの重要度スコアでガイドし、その後、そのコンパクトなサブモデルを軽量な再構成により共通のグローバルパラメータ空間にマッピングする、実用的なフレームワークCA-HFPを提案する。
我々は、局所的な計算、データ不均一性、およびプルーニングによる摂動を明示的に考慮した複数の局所的なSGDステップを持つフェデレート最適化のための収束バウンダリを導出し、そこから原則化された損失ベースのプルーニング基準を導出する。
FMNIST, CIFAR-10, CIFAR-100におけるVGGおよびResNetアーキテクチャを用いた多種多様なデータ均一性による大規模な実験により、CA-HFPはモデル精度を保ちながら、クライアント毎の計算と通信コストを大幅に削減し、標準フェデレーショントレーニングと既存のプルーニングベースラインを上回っていることが示された。
関連論文リスト
- ReHARK: Refined Hybrid Adaptive RBF Kernels for Robust One-Shot Vision-Language Adaptation [3.8707695363745214]
ReHARKは、グローバルな近位正規化を通じて、少数ショット適応を再解釈する、トレーニング不要のフレームワークである。
ワンショット適応のための新しい最先端技術がReHARKによって確立され、平均精度は65.83%である。
論文 参考訳(メタデータ) (2026-03-12T04:59:09Z) - Compressed Proximal Federated Learning for Non-Convex Composite Optimization on Heterogeneous Data [12.4809003470908]
FCOは非平滑化器を扱う際に通信効率と堅牢性を達成する。
Fed Composite Error FeedbackCEFは非効率的な量子収束のための新しいアルゴリズムである。
非IIDデータからアグレッシブ化やノイズを緩和する。
論文 参考訳(メタデータ) (2026-03-08T14:37:16Z) - CA-AFP: Cluster-Aware Adaptive Federated Pruning [1.345821655503426]
Federated Learning(FL)は、クライアント間の統計的不均一性によって、現実世界のデプロイメントにおいて大きな課題に直面します。
本稿では、クラスタ固有のモデルプルーニングを実行することによって、両方の課題に共同で対処する統合フレームワークであるCA-AFPを提案する。
本研究では,UCI HAR と WISDM の2つのヒト行動認識ベンチマークにおいて,自然なユーザベースのフェデレーション分割の下でCA-AFPを評価した。
論文 参考訳(メタデータ) (2026-03-02T11:04:25Z) - Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - CoCo-Fed: A Unified Framework for Memory- and Communication-Efficient Federated Learning at the Wireless Edge [50.42067935605982]
ローカルメモリの効率とグローバル通信の削減を両立させる新しい圧縮・結合型学習フレームワークを提案する。
CoCo-Fedは、メモリと通信効率の両方において最先端のベースラインを著しく上回り、非IID設定下では堅牢な収束を維持している。
論文 参考訳(メタデータ) (2026-01-02T03:39:50Z) - Towards Federated Clustering: A Client-wise Private Graph Aggregation Framework [57.04850867402913]
フェデレーションクラスタリングは、分散化されたラベルのないデータからパターンを抽出する課題に対処する。
本研究では,プライバシ保護のための知識共有媒体として,局所構造グラフを革新的に活用する新しいアルゴリズムSPP-FGCを提案する。
我々のフレームワークは最先端のパフォーマンスを実現し、認証可能なプライバシー保証を維持しつつ、フェデレーションベースラインよりも最大10%(NMI)のクラスタリング精度を向上させる。
論文 参考訳(メタデータ) (2025-11-14T03:05:22Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - Federated Smoothing Proximal Gradient for Quantile Regression with Non-Convex Penalties [3.269165283595478]
IoT(Internet-of-Things)の分散センサーは、大量のスパースデータを生成する。
本稿では, 滑らか化機構をそのビューに統合し, 精度と計算速度を両立させる, 結合型滑らか化近位勾配(G)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-10T21:50:19Z) - On the Convergence of Heterogeneous Federated Learning with Arbitrary
Adaptive Online Model Pruning [15.300983585090794]
任意適応型オンラインモデルプルーニングを用いた異種FLアルゴリズムの一元化フレームワークを提案する。
特に、ある十分な条件下では、これらのアルゴリズムは一般的なスムーズなコスト関数に対して標準FLの定常点に収束する。
コンバージェンスに影響を与える2つの要因として,プルーニング誘導雑音と最小カバレッジ指数を照らす。
論文 参考訳(メタデータ) (2022-01-27T20:43:38Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。