論文の概要: CA-AFP: Cluster-Aware Adaptive Federated Pruning
- arxiv url: http://arxiv.org/abs/2603.01739v1
- Date: Mon, 02 Mar 2026 11:04:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.830713
- Title: CA-AFP: Cluster-Aware Adaptive Federated Pruning
- Title(参考訳): CA-AFP: クラスタ対応Federated Pruning
- Authors: Om Govind Jha, Harsh Shukla, Haroon R. Lone,
- Abstract要約: Federated Learning(FL)は、クライアント間の統計的不均一性によって、現実世界のデプロイメントにおいて大きな課題に直面します。
本稿では、クラスタ固有のモデルプルーニングを実行することによって、両方の課題に共同で対処する統合フレームワークであるCA-AFPを提案する。
本研究では,UCI HAR と WISDM の2つのヒト行動認識ベンチマークにおいて,自然なユーザベースのフェデレーション分割の下でCA-AFPを評価した。
- 参考スコア(独自算出の注目度): 1.345821655503426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) faces major challenges in real-world deployments due to statistical heterogeneity across clients and system heterogeneity arising from resource-constrained devices. While clustering-based approaches mitigate statistical heterogeneity and pruning techniques improve memory and communication efficiency, these strategies are typically studied in isolation. We propose CA-AFP, a unified framework that jointly addresses both challenges by performing cluster-specific model pruning. In CA-AFP, clients are first grouped into clusters, and a separate model for each cluster is adaptively pruned during training. The framework introduces two key innovations: (1) a cluster-aware importance scoring mechanism that combines weight magnitude, intra-cluster coherence, and gradient consistency to identify parameters for pruning, and (2) an iterative pruning schedule that progressively removes parameters while enabling model self-healing through weight regrowth. We evaluate CA-AFP on two widely used human activity recognition benchmarks, UCI HAR and WISDM, under natural user-based federated partitions. Experimental results demonstrate that CA-AFP achieves a favorable balance between predictive accuracy, inter-client fairness, and communication efficiency. Compared to pruning-based baselines, CA-AFP consistently improves accuracy and lower performance disparity across clients with limited fine-tuning, while requiring substantially less communication than dense clustering-based methods. It also shows robustness to different Non-IID levels of data. Finally, ablation studies analyze the impact of clustering, pruning schedules and scoring mechanism offering practical insights into the design of efficient and adaptive FL systems.
- Abstract(参考訳): Federated Learning (FL)は、クライアント間の統計的異質性とリソース制約されたデバイスから生じるシステム異質性によって、現実世界のデプロイメントにおいて大きな課題に直面している。
クラスタリングに基づくアプローチは、統計的不均一性を緩和し、プルーニング技術はメモリと通信効率を改善するが、これらの戦略は典型的には独立して研究される。
本稿では、クラスタ固有のモデルプルーニングを実行することによって、両方の課題に共同で対処する統合フレームワークであるCA-AFPを提案する。
CA-AFPでは、クライアントはまずクラスタにグループ化され、各クラスタの別モデルがトレーニング中に適応的に実行されます。
本フレームワークでは,(1)重み付け,クラスタ内コヒーレンス,勾配の整合性を組み合わせてプルーニングパラメータを識別するクラスタ認識重要度スコアリング機構,(2)重み付けによるモデル自己修復を実現しつつパラメータを段階的に除去する反復的プルーニングスケジュール,の2つの重要なイノベーションを紹介した。
本研究では,UCI HAR と WISDM の2つのヒト行動認識ベンチマークにおいて,自然なユーザベースのフェデレーション分割の下でCA-AFPを評価した。
実験の結果,CA-AFPは予測精度,クライアント間公正性,通信効率のバランスが良好であることが確認された。
プルーニングベースのベースラインと比較すると、CA-AFPは細調整が限定されたクライアント間での精度と性能格差を一貫して改善する一方で、密集クラスタリングベースの手法よりも通信をかなり少なくする。
また、異なる非IIDレベルのデータに対して堅牢性を示す。
最後に, クラスタリング, プルーニングスケジュール, スコアリング機構の影響を解析し, 効率的かつ適応的なFLシステムの設計に関する実践的な洞察を提供する。
関連論文リスト
- Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - Towards Federated Clustering: A Client-wise Private Graph Aggregation Framework [57.04850867402913]
フェデレーションクラスタリングは、分散化されたラベルのないデータからパターンを抽出する課題に対処する。
本研究では,プライバシ保護のための知識共有媒体として,局所構造グラフを革新的に活用する新しいアルゴリズムSPP-FGCを提案する。
我々のフレームワークは最先端のパフォーマンスを実現し、認証可能なプライバシー保証を維持しつつ、フェデレーションベースラインよりも最大10%(NMI)のクラスタリング精度を向上させる。
論文 参考訳(メタデータ) (2025-11-14T03:05:22Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - An Architecture Built for Federated Learning: Addressing Data Heterogeneity through Adaptive Normalization-Free Feature Recalibration [0.3481075494213406]
We propose Adaptive Normalization-free Feature Recalibration (ANFR) to combat heterogeneous data in Federated Learning (FL)。
ANFRは、ウェイト標準化とチャネルアテンションを組み合わせて、特徴マップの学習可能なスケーリング要素を生成する。
実験により、ANFRは様々なアグリゲーション法で確立されたベースラインを一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2024-10-02T20:16:56Z) - FedAC: An Adaptive Clustered Federated Learning Framework for Heterogeneous Data [21.341280782748278]
クラスタ化フェデレーション学習(CFL)は、データ不均一性から生じる性能劣化を軽減するために提案される。
我々は,グローバル知識をクラスタ内学習に効率的に統合する適応型CFLフレームワークFedACを提案する。
実験の結果、FedACは試験精度が1.82%、12.67%向上した。
論文 参考訳(メタデータ) (2024-03-25T06:43:28Z) - Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - Federated Two Stage Decoupling With Adaptive Personalization Layers [5.69361786082969]
フェデレーション学習は、プライバシ制約を維持しながら分散学習を可能にする能力によって、大きな注目を集めている。
本質的には、学習の劣化と収束速度の低下を経験する。
等質なクライアントを同じ群にクラスタリングするという概念を採用することは自然であり、各群内のモデル重みのみを集約することができる。
論文 参考訳(メタデータ) (2023-08-30T07:46:32Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。