論文の概要: FedPIDAvg: A PID controller inspired aggregation method for Federated
Learning
- arxiv url: http://arxiv.org/abs/2304.12117v1
- Date: Mon, 24 Apr 2023 14:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 14:43:58.806233
- Title: FedPIDAvg: A PID controller inspired aggregation method for Federated
Learning
- Title(参考訳): FedPIDAvg:フェデレートラーニングのためのPID制御によるアグリゲーション手法
- Authors: Leon M\"achler, Ivan Ezhov, Suprosanna Shit, and Johannes C. Paetzold
- Abstract要約: FedPIDAvgは、Federated tumor Challenge 2022 (FETS22)に優勝した。
FETS21へのコントリビューションであるFedCostWAvgにインスパイアされた私たちは、フェデレーションとコラボレーティブな学習のための改善されたアグリゲーション戦略に貢献します。
- 参考スコア(独自算出の注目度): 2.417602779470811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents FedPIDAvg, the winning submission to the Federated Tumor
Segmentation Challenge 2022 (FETS22). Inspired by FedCostWAvg, our winning
contribution to FETS21, we contribute an improved aggregation strategy for
federated and collaborative learning. FedCostWAvg is a weighted averaging
method that not only considers the number of training samples of each cluster
but also the size of the drop of the respective cost function in the last
federated round. This can be interpreted as the derivative part of a PID
controller (proportional-integral-derivative controller). In FedPIDAvg, we
further add the missing integral term. Another key challenge was the vastly
varying size of data samples per center. We addressed this by modeling the data
center sizes as following a Poisson distribution and choosing the training
iterations per center accordingly. Our method outperformed all other
submissions.
- Abstract(参考訳): 本稿では,Federated tumor Segmentation Challenge 2022(FETS22)の受賞申請であるFedPIDAvgについて述べる。
FETS21への貢献であるFedCostWAvgにインスパイアされた私たちは、フェデレーションと協調学習のための改善された集約戦略に貢献します。
FedCostWAvgは、各クラスタのトレーニングサンプル数だけでなく、前回のフェデレーションラウンドにおける各コスト関数のドロップサイズも考慮した重み付き平均化手法である。
これはpidコントローラ(proportional-integral-derivative controller)の派生部分として解釈できる。
FedPIDAvgでは、欠落した積分項を追加します。
もうひとつの大きな課題は、中心あたりのデータサンプルのサイズが大幅に異なることだ。
私たちは、データセンターのサイズをPoissonディストリビューションに従ってモデル化し、センター毎にトレーニングイテレーションを選択することで、この問題に対処しました。
我々の方法は他のすべての提案を上回った。
関連論文リスト
- FedPID: An Aggregation Method for Federated Learning [4.951735133502006]
FedPIDはFederated tumor Challenge 2024 (FETS24)への提出である。
FedCostWAvgとFedPIDAvgにインスパイアされた我々は、フェデレーションと協調学習のための改善されたアグリゲーション戦略を提案する。
論文 参考訳(メタデータ) (2024-11-04T15:08:36Z) - FedEP: Tailoring Attention to Heterogeneous Data Distribution with Entropy Pooling for Decentralized Federated Learning [8.576433180938004]
本稿では,新しいDFL集約アルゴリズムFederated Entropy Pooling (FedEP)を提案する。
FedEPは、実際のデータではなく、局所分布の統計特性を取り入れることで、クライアントのドリフト問題を緩和する。
実験により、FedEPは最先端のアプローチよりも早く収束し、高いテスト性能を示すことが示されている。
論文 参考訳(メタデータ) (2024-10-10T07:39:15Z) - Federated brain tumor segmentation: an extensive benchmark [2.515027627030043]
本稿では,この課題における3つのクラスすべてからのフェデレーション学習アルゴリズムの広範なベンチマークを提案する。
各カテゴリのいくつかの手法は、若干の性能改善をもたらし、フェデレーションの圧倒的なデータ分布に対する最終モデル(s)バイアスを制限する可能性があることを示す。
論文 参考訳(メタデータ) (2024-10-07T09:32:19Z) - Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Discrete Probabilistic Inference as Control in Multi-path Environments [84.67055173040107]
本稿では,離散分布と構造化分布からサンプリングする問題を逐次決定問題として考察する。
我々は,GFlowNetが,フローの保存を強制することによって,報酬に比例してオブジェクトをサンプリングするポリシーを学習していることを示す。
また、GFlowNetの文献で見られるフローマッチングの目的が、精度の高いMaxEnt RLアルゴリズムと等価であることも証明した。
論文 参考訳(メタデータ) (2024-02-15T20:20:35Z) - Coupling Global Context and Local Contents for Weakly-Supervised
Semantic Segmentation [54.419401869108846]
Weakly Supervised Semantic (WSSS)モデルを提案する。
グローバルなオブジェクトコンテキストを異なる粒度空間でキャプチャするために,フレキシブルなコンテキストアグリゲーションモジュールを提案する。
局所的な細粒度を集約するために、ボトムアップパラメータ学習可能な方法で意味的に一貫した特徴融合モジュールを提案する。
論文 参考訳(メタデータ) (2023-04-18T15:29:23Z) - DPP-based Client Selection for Federated Learning with Non-IID Data [97.1195165400568]
本稿では,統合学習(FL)のコミュニケーションボトルネックに対処するクライアント選択(CS)手法を提案する。
まず、FLにおけるCSの効果を分析し、各学習ラウンドにおけるトレーニングデータセットの多様化に参加者を適切に選択することで、FLトレーニングを加速させることができることを示す。
我々は、データプロファイリングと決定点プロセス(DPP)サンプリング技術を活用し、DPPに基づく参加者選択(FL-DP$3$S)によるフェデレートラーニング(Federated Learning)と呼ばれるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-03-30T13:14:54Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - GFlowNet Foundations [66.69854262276391]
Generative Flow Networks (GFlowNets) は、多様な候補をアクティブな学習コンテキストでサンプリングする方法として導入された。
GFlowNetのさらなる理論的性質について述べる。
論文 参考訳(メタデータ) (2021-11-17T17:59:54Z) - FedAUX: Leveraging Unlabeled Auxiliary Data in Federated Learning [14.10627556244287]
フェデレート蒸留(Federated Distillation, FD)は、フェデレート学習のための新しいアルゴリズムパラダイムである。
ラベルなし補助データから最大ユーティリティを導出することで性能を大幅に向上するFedAUXを提案する。
大規模畳み込みニューラルネットワークとトランスフォーマーモデルの実験により、FedAUXのトレーニング性能がSOTA FLベースライン法を上回ることを示した。
論文 参考訳(メタデータ) (2021-02-04T09:53:53Z) - Fast-Convergent Federated Learning with Adaptive Weighting [6.040848035935873]
フェデレートラーニング(FL)は、リソース制約のあるエッジノードが、中央サーバのオーケストレーションの下でグローバルモデルを協調的に学習することを可能にする。
非IIDデータセットを持つノードの存在下でモデル収束を加速することを目的としたFederated Adaptive Weighting (FedAdp)アルゴリズムを提案する。
我々は、FedAdpを用いたFLトレーニングにより、MNISTデータセットで54.1%、FashionMNISTデータセットで45.4%の通信ラウンドを削減できることを示す。
論文 参考訳(メタデータ) (2020-12-01T17:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。