論文の概要: FedPID: An Aggregation Method for Federated Learning
- arxiv url: http://arxiv.org/abs/2411.02152v1
- Date: Mon, 04 Nov 2024 15:08:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:47:51.287186
- Title: FedPID: An Aggregation Method for Federated Learning
- Title(参考訳): FedPID: フェデレーションラーニングのための集約手法
- Authors: Leon Mächler, Gustav Grimberg, Ivan Ezhov, Manuel Nickel, Suprosanna Shit, David Naccache, Johannes C. Paetzold,
- Abstract要約: FedPIDはFederated tumor Challenge 2024 (FETS24)への提出である。
FedCostWAvgとFedPIDAvgにインスパイアされた我々は、フェデレーションと協調学習のための改善されたアグリゲーション戦略を提案する。
- 参考スコア(独自算出の注目度): 4.951735133502006
- License:
- Abstract: This paper presents FedPID, our submission to the Federated Tumor Segmentation Challenge 2024 (FETS24). Inspired by FedCostWAvg and FedPIDAvg, our winning contributions to FETS21 and FETS2022, we propose an improved aggregation strategy for federated and collaborative learning. FedCostWAvg is a method that averages results by considering both the number of training samples in each group and how much the cost function decreased in the last round of training. This is similar to how the derivative part of a PID controller works. In FedPIDAvg, we also included the integral part that was missing. Another challenge we faced were vastly differing dataset sizes at each center. We solved this by assuming the sizes follow a Poisson distribution and adjusting the training iterations for each center accordingly. Essentially, this part of the method controls that outliers that require too much training time are less frequently used. Based on these contributions we now adapted FedPIDAvg by changing how the integral part is computed. Instead of integrating the loss function we measure the global drop in cost since the first round.
- Abstract(参考訳): 本稿では,Federated tumor Segmentation Challenge 2024(FETS24)へのFedPIDの提出について述べる。
FETS21とFETS2022への貢献であるFedCostWAvgとFedPIDAvgにインスパイアされた我々は、フェデレーションと協調学習のための改善されたアグリゲーション戦略を提案する。
FedCostWAvgは、各グループのトレーニングサンプルの数と、前回のトレーニングラウンドでコスト関数がどれだけ低下したかを考慮し、結果を平均化する手法である。
これは、PIDコントローラの派生部が機能するのと似ている。
FedPIDAvgには、欠落していた統合的な部分も含まれていました。
もうひとつ直面した課題は、各センタのデータセットサイズが大きく違っていたことです。
我々は,ポアソン分布に従うサイズを仮定し,各センターのトレーニングイテレーションを調整することで,この問題を解決した。
基本的に、メソッドのこの部分は、過剰なトレーニング時間を必要とするアウトレイアがあまり使われていないことを制御します。
これらの貢献に基づいて、積分部分の計算方法を変更することでFedPIDAvgを適用しました。
損失関数を統合する代わりに、第1ラウンド以降の世界的なコスト低下を測定します。
関連論文リスト
- Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Exploring Flat Minima for Domain Generalization with Large Learning
Rates [33.770970763959355]
ドメインの一般化は、任意の未知のドメインに一般化することを目的としている。
このタスクの典型的な方法はSWADであり、トレーニング軌道に沿って重みを平均化する。
我々は,大きな学習率を活用することで,同時に体重の多様性を促進し,平坦な領域の同定を容易にすることを観察した。
論文 参考訳(メタデータ) (2023-09-12T15:55:14Z) - Towards Understanding and Improving GFlowNet Training [71.85707593318297]
本稿では,学習したサンプリング分布と目標報酬分布を比較するための効率的な評価手法を提案する。
本稿では,高解像度のx$,相対的エッジフローポリシーのパラメータ化,新しい軌道バランス目標を提案する。
論文 参考訳(メタデータ) (2023-05-11T22:50:41Z) - FedPIDAvg: A PID controller inspired aggregation method for Federated
Learning [2.417602779470811]
FedPIDAvgは、Federated tumor Challenge 2022 (FETS22)に優勝した。
FETS21へのコントリビューションであるFedCostWAvgにインスパイアされた私たちは、フェデレーションとコラボレーティブな学習のための改善されたアグリゲーション戦略に貢献します。
論文 参考訳(メタデータ) (2023-04-24T14:20:53Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Killing Two Birds with One Stone:Efficient and Robust Training of Face
Recognition CNNs by Partial FC [66.71660672526349]
部分FC (Partial FC) という,完全連結層 (FC) のスパース更新版を提案する。
各イテレーションにおいて、マージンベースのソフトマックス損失を計算するために、正のクラスセンターと負のクラスセンターのランダムなサブセットが選択される。
計算要求、クラス間衝突の確率、テールクラスセンターにおけるパッシブ更新の頻度は劇的に減少する。
論文 参考訳(メタデータ) (2022-03-28T14:33:21Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - 1st Place Solution for ICDAR 2021 Competition on Mathematical Formula
Detection [3.600275712225597]
数式検出(MFD)に関するICDAR 2021コンペティションの第一位ソリューションを提示する。
MFDタスクには、大規模スパン、高さと幅の比率の大きなばらつき、リッチな文字集合と数学的表現を含む3つの重要な課題がある。
これらの課題を考慮し, アンカーフリー手法であるGeneralized Focal Loss (GFL) を用いた。
論文 参考訳(メタデータ) (2021-07-12T16:03:16Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。