論文の概要: Revisit the Stability of Vanilla Federated Learning Under Diverse Conditions
- arxiv url: http://arxiv.org/abs/2502.19849v1
- Date: Thu, 27 Feb 2025 07:47:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:56:41.261120
- Title: Revisit the Stability of Vanilla Federated Learning Under Diverse Conditions
- Title(参考訳): 多様な条件下でのバニラフェデレーション学習の安定性の再検討
- Authors: Youngjoon Lee, Jinu Gong, Sun Choi, Joonhyuk Kang,
- Abstract要約: Federated Learning(FL)は分散機械学習のパラダイムであり、分散化されたクライアント間で協調的なモデルトレーニングを可能にする。
種々の条件下でのバニラFedAvgアルゴリズムの安定性を再検討する。
- 参考スコア(独自算出の注目度): 3.237380113935023
- License:
- Abstract: Federated Learning (FL) is a distributed machine learning paradigm enabling collaborative model training across decentralized clients while preserving data privacy. In this paper, we revisit the stability of the vanilla FedAvg algorithm under diverse conditions. Despite its conceptual simplicity, FedAvg exhibits remarkably stable performance compared to more advanced FL techniques. Our experiments assess the performance of various FL methods on blood cell and skin lesion classification tasks using Vision Transformer (ViT). Additionally, we evaluate the impact of different representative classification models and analyze sensitivity to hyperparameter variations. The results consistently demonstrate that, regardless of dataset, classification model employed, or hyperparameter settings, FedAvg maintains robust performance. Given its stability, robust performance without the need for extensive hyperparameter tuning, FedAvg is a safe and efficient choice for FL deployments in resource-constrained hospitals handling medical data. These findings underscore the enduring value of the vanilla FedAvg approach as a trusted baseline for clinical practice.
- Abstract(参考訳): Federated Learning(FL)は分散機械学習のパラダイムであり、データプライバシを保持しながら、分散化されたクライアント間で協調的なモデルトレーニングを可能にする。
本稿では,種々の条件下でのバニラFedAvgアルゴリズムの安定性を再検討する。
概念的単純さにもかかわらず、FedAvgはより高度なFL技術と比較して驚くほど安定した性能を示す。
ViT (Vision Transformer) を用いた血液細胞および皮膚病変分類タスクにおけるFL法の性能評価を行った。
さらに、異なる代表分類モデルの影響を評価し、過パラメータ変動に対する感度を解析する。
結果は、データセット、分類モデル、ハイパーパラメータ設定にかかわらず、FedAvgは堅牢なパフォーマンスを維持していることを一貫して示している。
広範囲なハイパーパラメータチューニングを必要とせずに、安定性と堅牢なパフォーマンスを考慮すれば、FedAvgは、医療データを扱うリソース制約のある病院において、FLデプロイメントの安全かつ効率的な選択である。
以上より,バニラFedAvgアプローチを臨床実習の信頼性基準としての有用性が示唆された。
関連論文リスト
- Feasible Learning [78.6167929413604]
本稿では,サンプル中心の学習パラダイムであるFeasible Learning(FL)を紹介する。
大規模言語モデルにおける画像分類, 年齢回帰, 好みの最適化といった経験的分析により, FLを用いて訓練したモデルでは, 平均的性能に限界があるものの, ERMと比較して改善された尾の挙動を示しながらデータから学習できることが実証された。
論文 参考訳(メタデータ) (2025-01-24T20:39:38Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - FedDW: Distilling Weights through Consistency Optimization in Heterogeneous Federated Learning [14.477559543490242]
Federated Learning(FL)は、データの集中化なしにデバイス間でのニューラルネットワークトレーニングを可能にする、革新的な分散機械学習パラダイムである。
従来の研究では、IID環境では、モデルのパラメータ構造が特定の一貫性の原則に従うことが期待されている。
本稿では,両者の整合性を識別し,FedDWフレームワークの基盤となるトレーニングの調整に活用する。
実験結果から,FedDWは10種類の最先端FL法より優れ,高度不均一条件下では平均3%精度が向上した。
論文 参考訳(メタデータ) (2024-12-05T12:32:40Z) - FedGS: Federated Gradient Scaling for Heterogeneous Medical Image Segmentation [0.4499833362998489]
そこで本研究では,FedGSという新しいFLアグリゲーション手法を提案する。
FedGSは、特に小さな病変に対して、PolypGenとLiTSデータセット間で、FedAvgよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-08-21T15:26:21Z) - On ADMM in Heterogeneous Federated Learning: Personalization, Robustness, and Fairness [16.595935469099306]
本稿では,乗算器の交互方向法(ADMM)を利用して,パーソナライズおよびグローバルモデルの学習を行う最適化フレームワークFLAMEを提案する。
我々の理論的解析は、軽度の仮定の下で、FLAMEのグローバル収束と2種類の収束速度を確立する。
実験の結果,FLAMEは収束と精度において最先端の手法より優れており,各種攻撃下では高い精度を達成できることがわかった。
論文 参考訳(メタデータ) (2024-07-23T11:35:42Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - FedPseudo: Pseudo value-based Deep Learning Models for Federated
Survival Analysis [9.659041001051415]
我々はフェデプゼウドと呼ばれるフェデレーションサバイバル分析のための擬似値ベース深層学習モデルを提案する。
提案するFLフレームワークは,最良に訓練された深層生存分析モデルと同等の性能を達成している。
論文 参考訳(メタデータ) (2022-07-12T01:10:36Z) - Label-Efficient Self-Supervised Federated Learning for Tackling Data
Heterogeneity in Medical Imaging [23.08596805950814]
医用画像解析のための頑健でラベル効率の良い自己教師型FLフレームワークを提案する。
具体的には,既存のFLパイプラインに分散自己教師型事前学習パラダイムを導入する。
自己教師付きFLアルゴリズムは,分布外データに対してよく一般化し,限定ラベルのシナリオにおいてより効果的にフェデレーションモデルを学習することを示す。
論文 参考訳(メタデータ) (2022-05-17T18:33:43Z) - MS Lesion Segmentation: Revisiting Weighting Mechanisms for Federated
Learning [92.91544082745196]
フェデレートラーニング(FL)は医用画像解析に広く用いられている。
FLのパフォーマンスは、多発性硬化症(MS)病変セグメンテーションタスクに制限される。
2つの効果的な再重み付け機構によるFLMS病変分割フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-03T14:06:03Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。