論文の概要: FedFMC: Sequential Efficient Federated Learning on Non-iid Data
- arxiv url: http://arxiv.org/abs/2006.10937v1
- Date: Fri, 19 Jun 2020 02:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 04:13:42.386944
- Title: FedFMC: Sequential Efficient Federated Learning on Non-iid Data
- Title(参考訳): FedFMC:非IDデータに基づく逐次効率なフェデレーションラーニング
- Authors: Kavya Kopparapu, Eric Lin
- Abstract要約: FedFMC(Fork-Consolidate-Merge)は、異なるグローバルモデルの更新をデバイスに強制してマージし、別々のモデルをひとつに統合する手法である。
我々はFedFMCが、グローバルに共有されたデータのサブセットを用いることなく、また通信コストを増大させることなく、フェデレーション学習コンテキストにおける非IDデータに対する以前のアプローチを大幅に改善したことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a mechanism for devices to update a global model without sharing data,
federated learning bridges the tension between the need for data and respect
for privacy. However, classic FL methods like Federated Averaging struggle with
non-iid data, a prevalent situation in the real world. Previous solutions are
sub-optimal as they either employ a small shared global subset of data or
greater number of models with increased communication costs. We propose FedFMC
(Fork-Merge-Consolidate), a method that dynamically forks devices into updating
different global models then merges and consolidates separate models into one.
We first show the soundness of FedFMC on simple datasets, then run several
experiments comparing against baseline approaches. These experiments show that
FedFMC substantially improves upon earlier approaches to non-iid data in the
federated learning context without using a globally shared subset of data nor
increase communication costs.
- Abstract(参考訳): デバイスがデータを共有せずにグローバルモデルを更新するためのメカニズムとして、フェデレーション学習は、データの必要性とプライバシの尊重の間の緊張を橋渡しする。
しかしながら、Federated Averagingのような古典的なFLメソッドは、非IDデータと競合する。
従来のソリューションは、データの小さな共有グローバルサブセットを使用するか、通信コストが増大するモデルの数が多いため、サブ最適である。
本研究では,デバイスを動的にフォークして異なるグローバルモデルを更新する手法であるfeedfmc(fork-merge-consolidate)を提案する。
まず,簡単なデータセット上でfeedfmcの健全性を示すとともに,ベースラインアプローチとの比較実験を行った。
これらの実験は、federated learningコンテキストにおける非iidデータに対する以前のアプローチを、グローバルに共有されたデータのサブセットを使用せずに大幅に改善し、通信コストを増加させることを示した。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Exploiting Label Skews in Federated Learning with Model Concatenation [39.38427550571378]
Federated Learning(FL)は、生データを交換することなく、さまざまなデータオーナでディープラーニングを実行するための、有望なソリューションとして登場した。
非IID型では、ラベルスキューは困難であり、画像分類やその他のタスクで一般的である。
我々は,これらの局所モデルをグローバルモデルの基礎として分解する,シンプルで効果的なアプローチであるFedConcatを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:44:52Z) - An Efficient Virtual Data Generation Method for Reducing Communication
in Federated Learning [34.39250699866746]
いくつかの古典的なスキームでは、サーバがローカルモデルから参加者のトレーニングデータに関する補助情報を抽出し、中央ダミーデータセットを構築することができると仮定している。
サーバはダミーデータセットを使用して、集約されたグローバルモデルを微調整し、より少ない通信ラウンドでターゲットテストの精度を達成する。
本稿では、上記のソリューションをデータベースの通信効率FLフレームワークにまとめる。
論文 参考訳(メタデータ) (2023-06-21T08:07:07Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Heterogeneous Ensemble Knowledge Transfer for Training Large Models in
Federated Learning [22.310090483499035]
フェデレートラーニング(FL)は、エッジデバイスがプライベートデータを中央集約サーバに公開することなく、協調的にモデルを学習することを可能にする。
既存のFLアルゴリズムの多くは、クライアントとサーバにまたがってデプロイされるのと同じアーキテクチャのモデルを必要とする。
本稿では,Fed-ETと呼ばれる新しいアンサンブル知識伝達手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T05:18:32Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - FedMix: Approximation of Mixup under Mean Augmented Federated Learning [60.503258658382]
フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
論文 参考訳(メタデータ) (2021-07-01T06:14:51Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。