論文の概要: Optimizing Performance of Federated Person Re-identification:
Benchmarking and Analysis
- arxiv url: http://arxiv.org/abs/2205.12144v1
- Date: Tue, 24 May 2022 15:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 13:17:02.981938
- Title: Optimizing Performance of Federated Person Re-identification:
Benchmarking and Analysis
- Title(参考訳): フェデレートされた人物の再識別性能の最適化:ベンチマークと分析
- Authors: Weiming Zhuang, Xin Gan, Yonggang Wen, Shuai Zhang
- Abstract要約: FedReIDは、新しい分散トレーニング手法であるフェデレーション学習を個人に対して実装する。
FedReIDは、クライアントから中央サーバへ、生のデータではなく、モデル更新を集約することで、データのプライバシを保存する。
- 参考スコア(独自算出の注目度): 14.545746907150436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasingly stringent data privacy regulations limit the development of
person re-identification (ReID) because person ReID training requires
centralizing an enormous amount of data that contains sensitive personal
information. To address this problem, we introduce federated person
re-identification (FedReID) -- implementing federated learning, an emerging
distributed training method, to person ReID. FedReID preserves data privacy by
aggregating model updates, instead of raw data, from clients to a central
server. Furthermore, we optimize the performance of FedReID under statistical
heterogeneity via benchmark analysis. We first construct a benchmark with an
enhanced algorithm, two architectures, and nine person ReID datasets with large
variances to simulate the real-world statistical heterogeneity. The benchmark
results present insights and bottlenecks of FedReID under statistical
heterogeneity, including challenges in convergence and poor performance on
datasets with large volumes. Based on these insights, we propose three
optimization approaches: (1) We adopt knowledge distillation to facilitate the
convergence of FedReID by better transferring knowledge from clients to the
server; (2) We introduce client clustering to improve the performance of large
datasets by aggregating clients with similar data distributions; (3) We propose
cosine distance weight to elevate performance by dynamically updating the
weights for aggregation depending on how well models are trained in clients.
Extensive experiments demonstrate that these approaches achieve satisfying
convergence with much better performance on all datasets. We believe that
FedReID will shed light on implementing and optimizing federated learning on
more computer vision applications.
- Abstract(参考訳): ますます厳しいデータプライバシー規制は、機密性の高い個人情報を含む膨大な量のデータを集中化する必要があるため、人物の再識別(ReID)の開発を制限する。
この問題に対処するために,新たな分散学習手法であるフェデレート学習を実装したフェデレーション・パーソナライゼーション(FedReID)を導入した。
FedReIDは、クライアントから中央サーバへ、生のデータではなく、モデル更新を集約することで、データのプライバシを保存する。
さらに,ベンチマーク解析により,統計的不均質性下でのfeedreidの性能を最適化する。
まず,拡張アルゴリズム,2つのアーキテクチャ,9人のReIDデータセットを用いて,実世界の統計的不均一性をシミュレートするベンチマークを構築した。
ベンチマークの結果は、FedReIDの統計的不均一性に対する洞察とボトルネックを示し、大量のデータセットに対する収束と性能の低下が問題となっている。
Based on these insights, we propose three optimization approaches: (1) We adopt knowledge distillation to facilitate the convergence of FedReID by better transferring knowledge from clients to the server; (2) We introduce client clustering to improve the performance of large datasets by aggregating clients with similar data distributions; (3) We propose cosine distance weight to elevate performance by dynamically updating the weights for aggregation depending on how well models are trained in clients.
大規模な実験により、これらの手法はすべてのデータセットではるかに優れた性能で収束を満足できることを示した。
FedReIDは、より多くのコンピュータビジョンアプリケーション上でのフェデレーション学習の実装と最適化に光を当てると思います。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Aggregation Delayed Federated Learning [20.973999078271483]
フェデレーション学習(Federated Learning)は、複数のデータ所有者(クライアント)が、自身のデバイスにデータを保持しながら、ひとつのマシンラーニングモデルを協調的にトレーニングする分散機械学習パラダイムである。
非IIDデータ上では、FedAvgのような標準フェデレーションアルゴリズムによる性能低下が報告されている。
非IIDデータを扱うための多くの既存の作業は、FedAvgと同じ集約フレームワークを採用し、サーバ側またはクライアントでモデル更新を改善することに重点を置いている。
本研究では, 集約を遅らせる再分配ラウンドを導入することで, この課題に取り組み, 複数タスクの実験を行い, 提案したフレームワークが非IIDの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-08-17T04:06:10Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - CatFedAvg: Optimising Communication-efficiency and Classification
Accuracy in Federated Learning [2.2172881631608456]
そこで我々はCatFedAvgというフェデレート学習アルゴリズムを新たに導入した。
コミュニケーション効率は向上するが、NIST戦略のカテゴリカバレッジを用いて学習の質を向上させる。
実験の結果,FedAvgよりもネットワーク転送率が70%低いMデータセットでは,10%の絶対点精度が向上していることがわかった。
論文 参考訳(メタデータ) (2020-11-14T06:52:02Z) - Performance Optimization for Federated Person Re-identification via
Benchmark Analysis [25.9422385039648]
フェデレーション学習(Federated Learning)は、分散型クライアント間で共有モデルを学習する、プライバシ保護機械学習技術である。
本研究では,人間再同定(FedReID)にフェデレート学習を実装し,実世界のシナリオにおけるその性能を最適化する。
論文 参考訳(メタデータ) (2020-08-26T13:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。