論文の概要: A Practical Recipe for Federated Learning Under Statistical
Heterogeneity Experimental Design
- arxiv url: http://arxiv.org/abs/2307.15245v1
- Date: Fri, 28 Jul 2023 00:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 14:02:48.714091
- Title: A Practical Recipe for Federated Learning Under Statistical
Heterogeneity Experimental Design
- Title(参考訳): 統計的不均一性実験設計におけるフェデレーション学習の実践的準備
- Authors: Mahdi Morafah, Weijia Wang, Bill Lin
- Abstract要約: 本研究は,FL固有の実験変数が相互に作用し,性能に与える影響に関する総合的研究である。
我々はPyTorchをベースとしたオープンソースライブラリであるFedZoo-Benchをリリースした。
- 参考スコア(独自算出の注目度): 7.918118963059512
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated Learning (FL) has been an area of active research in recent years.
There have been numerous studies in FL to make it more successful in the
presence of data heterogeneity. However, despite the existence of many
publications, the state of progress in the field is unknown. Many of the works
use inconsistent experimental settings and there are no comprehensive studies
on the effect of FL-specific experimental variables on the results and
practical insights for a more comparable and consistent FL experimental setup.
Furthermore, the existence of several benchmarks and confounding variables has
further complicated the issue of inconsistency and ambiguity. In this work, we
present the first comprehensive study on the effect of FL-specific experimental
variables in relation to each other and performance results, bringing several
insights and recommendations for designing a meaningful and well-incentivized
FL experimental setup. We further aid the community by releasing FedZoo-Bench,
an open-source library based on PyTorch with pre-implementation of 22
state-of-the-art methods, and a broad set of standardized and customizable
features available at https://github.com/MMorafah/FedZoo-Bench. We also provide
a comprehensive comparison of several state-of-the-art (SOTA) methods to better
understand the current state of the field and existing limitations.
- Abstract(参考訳): 近年,連合学習(fl)は活発な研究分野となっている。
FLでは、データ不均一性の存在をより成功させるために多くの研究がなされている。
しかし、多くの出版物が存在するにもかかわらず、この分野の進展状況は不明である。
多くの研究では一貫性のない実験環境が使われており、FL固有の実験変数が結果に与える影響に関する包括的な研究は行われていない。
さらに、いくつかのベンチマークと結合変数の存在は、矛盾と曖昧性の問題をさらに複雑にしている。
本研究は,FL固有の実験変数の相互関係と評価結果に対する効果に関する総合的研究であり,有意義でインセンティブの高いFL実験装置を設計するためのいくつかの洞察と勧告をもたらす。
PyTorchをベースとして22の最先端メソッドを事前実装したオープンソースライブラリであるFedZoo-Benchと、https://github.com/MMorafah/FedZoo-Benchで利用可能な、幅広い標準化およびカスタマイズ可能な機能セットをリリースすることによって、コミュニティをさらに支援します。
また、フィールドの現在の状態と既存の制限をよりよく理解するために、いくつかの最先端(SOTA)手法を包括的に比較する。
関連論文リスト
- Federated Multi-Task Learning on Non-IID Data Silos: An Experimental Study [17.555311732095483]
FMTLアプローチは、フェデレートラーニング(FL)とマルチタスクラーニング(MTL)の利点を統合する
本稿では,FMTLパラダイムの体系的評価のための新しいフレームワークFMTL-Benchを紹介する。
論文 参考訳(メタデータ) (2024-02-20T10:13:44Z) - A Comprehensive View of Personalized Federated Learning on Heterogeneous Clinical Datasets [0.4926316920996346]
フェデレートラーニング(FL)は、データサイロを克服する上で重要なアプローチである。
本研究は,臨床応用に焦点を当てたFL研究の進展に寄与する。
論文 参考訳(メタデータ) (2023-09-28T20:12:17Z) - UNIDEAL: Curriculum Knowledge Distillation Federated Learning [17.817181326740698]
フェデレートラーニング(FL)は、複数のクライアント間で協調学習を可能にする、有望なアプローチとして登場した。
本稿では,ドメイン横断シナリオの課題に対処するための新しいFLアルゴリズムであるUNIを提案する。
この結果から,UNIはモデル精度と通信効率の両面において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-09-16T11:30:29Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - FS-Real: Towards Real-World Cross-Device Federated Learning [60.91678132132229]
Federated Learning (FL)は、ローカルデータをアップロードすることなく、分散クライアントと協調して高品質なモデルをトレーニングすることを目的としている。
FL研究と実世界のシナリオの間には依然としてかなりのギャップがあり、主に異種デバイスの特徴とそのスケールによって引き起こされている。
本稿では,実世界横断デバイスFL,FS-Realのための効率的でスケーラブルなプロトタイピングシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T15:37:17Z) - UniFed: All-In-One Federated Learning Platform to Unify Open-Source
Frameworks [53.20176108643942]
オープンソースフェデレートラーニング(FL)フレームワークを標準化する最初の統一プラットフォームであるUniFedを紹介します。
UniFedは、分散実験とデプロイメントのためのエンドツーエンドワークフローを合理化し、11の人気のあるオープンソースFLフレームワークを含んでいる。
機能、プライバシ保護、パフォーマンスの観点から、11の人気のあるFLフレームワークを評価し比較する。
論文 参考訳(メタデータ) (2022-07-21T05:03:04Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Failure Prediction in Production Line Based on Federated Learning: An
Empirical Study [8.574488051650123]
フェデレーション学習(fl)は、複数の参加者がデータを共有することなく学習モデルを構築することを可能にする。
本稿では,FLに基づく生産ラインの故障予測に関する実証研究の結果について述べる。
論文 参考訳(メタデータ) (2021-01-25T10:27:19Z) - With Little Power Comes Great Responsibility [54.96675741328462]
アンダーパワー実験により、統計的ノイズと有意義なモデル改善の違いを識別することがより困難になる。
小さなテストセットは、ほとんどの試行錯誤が、最先端のモデルと比較しても、十分なパワーが得られないことを意味している。
機械翻訳では,2000文の典型的テストセットが約75%のパワーで1 BLEU点の差を検出する。
論文 参考訳(メタデータ) (2020-10-13T18:00:02Z) - Stochastic-Sign SGD for Federated Learning with Theoretical Guarantees [49.91477656517431]
量子化に基づく解法は、フェデレートラーニング(FL)において広く採用されている。
上記のプロパティをすべて享受する既存のメソッドはありません。
本稿では,SIGNSGDに基づく直感的かつ理論的に簡易な手法を提案し,そのギャップを埋める。
論文 参考訳(メタデータ) (2020-02-25T15:12:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。