論文の概要: FedKLPR: Personalized Federated Learning for Person Re-Identification with Adaptive Pruning
- arxiv url: http://arxiv.org/abs/2508.17431v1
- Date: Sun, 24 Aug 2025 16:11:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.519889
- Title: FedKLPR: Personalized Federated Learning for Person Re-Identification with Adaptive Pruning
- Title(参考訳): FedKLPR:適応型プルーニングによる個人再認識のための個人化フェデレーション学習
- Authors: Po-Hsien Yu, Yu-Syuan Tseng, Shao-Yi Chien,
- Abstract要約: 人物の身元確認(Re-ID)は、知的監視と公衆安全の基本的な課題である。
現実のre-IDシステムにフェデレートラーニング(FL)を適用することは、2つの大きな課題に直面します。
我々は、人物再識別のための軽量でコミュニケーション効率の良いフレームワークであるFedKLPRを提案する。
- 参考スコア(独自算出の注目度): 6.3531448415573655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification (Re-ID) is a fundamental task in intelligent surveillance and public safety. Federated learning (FL) offers a privacy-preserving solution by enabling collaborative model training without centralized data collection. However, applying FL to real-world re-ID systems faces two major challenges: statistical heterogeneity across clients due to non-IID data distributions, and substantial communication overhead caused by frequent transmission of large-scale models. To address these issues, we propose FedKLPR, a lightweight and communication-efficient federated learning framework for person re-identification. FedKLPR introduces four key components. First, the KL-Divergence Regularization Loss (KLL) constrains local models by minimizing the divergence from the global feature distribution, effectively mitigating the effects of statistical heterogeneity and improving convergence stability under non-IID conditions. Secondly, KL-Divergence-Prune Weighted Aggregation (KLPWA) integrates pruning ratio and distributional similarity into the aggregation process, thereby improving the robustness of the global model while significantly reducing communication overhead. Furthermore, sparse Activation Skipping (SAS) mitigates the dilution of critical parameters during the aggregation of pruned client models by excluding zero-valued weights from the update process. Finally, Cross-Round Recovery (CRR) introduces a dynamic pruning control mechanism that halts pruning when necessary, enabling deeper compression while maintaining model accuracy. Experimental results on eight benchmark datasets demonstrate that FedKLPR achieves significant communication reduction. Compared with the state-of-the-art, FedKLPR reduces 33\%-38\% communication cost on ResNet-50 and 20\%-40\% communication cost on ResNet-34, while maintaining model accuracy within 1\% degradation.
- Abstract(参考訳): 人物の身元確認(Re-ID)は、知的監視と公衆安全の基本的な課題である。
Federated Learning(FL)は、集中的なデータ収集なしに協調的なモデルトレーニングを可能にすることで、プライバシ保護ソリューションを提供する。
しかし、FLを現実世界のre-IDシステムに適用することは、非IIDデータ分布によるクライアント間の統計的不均一性と、大規模モデルの頻繁な伝達による通信オーバーヘッドの2つの大きな課題に直面している。
これらの課題に対処するため,人間再識別のための軽量かつコミュニケーション効率の高いフェデレート学習フレームワークであるFedKLPRを提案する。
FedKLPRは4つの重要なコンポーネントを導入している。
第一に、KL-Divergence Regularization Loss (KLL)は、グローバルな特徴分布からの発散を最小限に抑え、統計的不均一性の効果を効果的に軽減し、非IID条件下での収束安定性を向上させることで局所モデルを制約する。
第2に、KL-Divergence-Prune Weighted Aggregation (KLPWA) は、集約プロセスにプルーニング比と分布類似性を統合することにより、通信オーバーヘッドを大幅に低減しつつ、グローバルモデルのロバスト性を向上させる。
さらに、スパースアクティベーション・スキッピング(SAS)は、更新プロセスからゼロ値の重みを除き、刈り取られたクライアントモデルの集約中に臨界パラメータの希釈を緩和する。
最後に、クロスローンドリカバリ(CRR)では、必要に応じてプルーニングを停止し、モデル精度を維持しながらより深い圧縮を可能にする動的プルーニング制御機構が導入されている。
8つのベンチマークデータセットの実験結果から,FedKLPRは通信量を大幅に削減できることが示された。
最先端と比較して、FedKLPRはResNet-50の通信コストを33-%-38-%削減し、ResNet-34の通信コストを20-%-40-%削減した。
関連論文リスト
- FedP3E: Privacy-Preserving Prototype Exchange for Non-IID IoT Malware Detection in Cross-Silo Federated Learning [5.7494612007431805]
データプライバシを維持しつつ、間接的なクライアント間表現共有をサポートする新しいFLフレームワークであるFedP3Eを提案する。
我々は,N-BaIoTデータセット上のFedP3Eを,データ不均衡の程度が異なる現実的なクロスサイロシナリオ下で評価した。
論文 参考訳(メタデータ) (2025-07-09T20:07:35Z) - Robust Federated Learning in the Face of Covariate Shift: A Magnitude Pruning with Hybrid Regularization Framework for Enhanced Model Aggregation [1.519321208145928]
Federated Learning(FL)は、共有モデルの共同開発を目指す個人に対して、有望なフレームワークを提供する。
クライアント間のデータの分散の変化は、主に集約プロセスの不安定性によって、FL方法論に大きく影響します。
本稿では,個々のパラメータのプルーニングと正規化技術を組み合わせて,個々のクライアントモデルのロバスト性を向上する新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedSPU: Personalized Federated Learning for Resource-constrained Devices with Stochastic Parameter Update [0.27309692684728615]
フェデレートラーニング(PFL)は、高ボリュームの非IDクライアントデータを処理するために、IoTアプリケーションに広く使用されている。
FedSPUはFederated Dropoutを平均7.57%上回っている。
早期停止方式を導入し、高精度を維持しながらトレーニング時間を24.8%から70.4%削減した。
論文 参考訳(メタデータ) (2024-03-18T04:31:38Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Joint Local Relational Augmentation and Global Nash Equilibrium for
Federated Learning with Non-IID Data [36.426794300280854]
フェデレーテッド・ラーニング(FL)は分散機械学習のパラダイムであり、サーバーと一連のクライアントの協力を必要とする。
本稿では,局所的リレーショナル拡張(LRA)と大域的ナッシュ均衡(GNE)の2つの主要モジュールからなるFedRANEを提案する。
論文 参考訳(メタデータ) (2023-08-17T06:17:51Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。