論文の概要: FedCostWAvg: A new averaging for better Federated Learning
- arxiv url: http://arxiv.org/abs/2111.08649v1
- Date: Tue, 16 Nov 2021 17:31:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 14:54:04.195471
- Title: FedCostWAvg: A new averaging for better Federated Learning
- Title(参考訳): FedCostWAvg: よりよいフェデレーション学習のための新しい平均化
- Authors: Leon M\"achler, Ivan Ezhov, Florian Kofler, Suprosanna Shit, Johannes
C. Paetzold, Timo Loehr, Benedikt Wiestler, Bjoern Menze
- Abstract要約: 我々は,MICCAIフェデレーション・腫瘍・チャレンジ2021で優勝したフェデレーション・ラーニングのための新しいアグリゲーション戦略を提案する。
提案手法は,異なるデータセットで学習した複数のモデルを集約する方法の問題に対処する。
- 参考スコア(独自算出の注目度): 1.1245087602142634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a simple new aggregation strategy for federated learning that won
the MICCAI Federated Tumor Segmentation Challenge 2021 (FETS), the first ever
challenge on Federated Learning in the Machine Learning community. Our method
addresses the problem of how to aggregate multiple models that were trained on
different data sets. Conceptually, we propose a new way to choose the weights
when averaging the different models, thereby extending the current state of the
art (FedAvg). Empirical validation demonstrates that our approach reaches a
notable improvement in segmentation performance compared to FedAvg.
- Abstract(参考訳): 本稿では,機械学習コミュニティにおけるフェデレーション学習に対する最初の挑戦である,miccai federated tumor segmentation challenge 2021 (fets) を勝ち取った,フェデレーション学習のための簡易な新しい集約戦略を提案する。
本手法は,異なるデータセットで学習した複数のモデルを集約する方法の問題に対処する。
概念的には、異なるモデルを平均化する際のウェイトを選択する新しい方法を提案し、それによって、アート(FedAvg)の現在の状態を拡張する。
実証検証の結果,FedAvgに比べてセグメンテーション性能が顕著に向上した。
関連論文リスト
- Enhanced Few-Shot Class-Incremental Learning via Ensemble Models [34.84881941101568]
クラス増分学習(class-incremental learning)は、新しいクラスを限られたトレーニングデータに継続的に適合させることを目的としている。
主な課題は、珍しい新しいトレーニングサンプルを過度に適合させ、古いクラスを忘れることである。
本稿では,データ拡張と協調して一般化を促進する新しいアンサンブルモデルフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-14T06:07:07Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Guiding The Last Layer in Federated Learning with Pre-Trained Models [18.382057374270143]
フェデレートラーニング(FL)は、データを共有することなく、多数の参加者にまたがってモデルをトレーニングできる新興パラダイムである。
NCM(Nearest Class Means)を用いた分類ヘッドの適合は,既存の提案よりも正確に,桁違いに効率的に行えることを示す。
論文 参考訳(メタデータ) (2023-06-06T18:02:02Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Team Cogitat at NeurIPS 2021: Benchmarks for EEG Transfer Learning
Competition [55.34407717373643]
脳波復号のための主題に依存しないディープラーニングモデルの構築は、強い共シフトの課題に直面している。
我々のアプローチは、ディープラーニングモデルの様々な層に特徴分布を明示的に整列させることです。
この方法論は、NeurIPSカンファレンスで開催されている2021年のEEG Transfer Learningコンペティションで優勝した。
論文 参考訳(メタデータ) (2022-02-01T11:11:08Z) - Minimax Demographic Group Fairness in Federated Learning [23.1988909029387]
フェデレートラーニング(Federated Learning)は、多数のエンティティが協調してより良いモデルを学ぶことを可能にする、ますます人気のあるパラダイムである。
異なる参加団体がトレーニング期間中に集団のサブセットにのみアクセス可能な,連合学習シナリオにおけるミニマックスグループフェアネスについて検討した。
我々は,様々なフェデレート学習環境におけるグループフェアネスの観点から,他の最先端手法に対する提案手法を実験的に比較した。
論文 参考訳(メタデータ) (2022-01-20T17:13:54Z) - WAFFLE: Weighted Averaging for Personalized Federated Learning [38.241216472571786]
WAFFLEは、SCAFFOLDに基づくパーソナライズされた協調機械学習アルゴリズムである。
WAFFLEは、クライアントのアップデート間のユークリッド距離を使用して、個々のコントリビューションを計測する。
本実験では, WAFFLE の有効性を他の方法と比較した。
論文 参考訳(メタデータ) (2021-10-13T18:40:54Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。