論文の概要: FedMix: Approximation of Mixup under Mean Augmented Federated Learning
- arxiv url: http://arxiv.org/abs/2107.00233v1
- Date: Thu, 1 Jul 2021 06:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 14:02:23.052260
- Title: FedMix: Approximation of Mixup under Mean Augmented Federated Learning
- Title(参考訳): fedmix: 平均的なフェデレーション学習におけるミックスアップの近似
- Authors: Tehrim Yoon, Sumin Shin, Sung Ju Hwang, Eunho Yang
- Abstract要約: フェデレートラーニング(FL)は、エッジデバイスが各デバイス内でデータを直接共有することなく、モデルを集合的に学習することを可能にする。
現在の最先端アルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれて性能劣化に悩まされる。
我々はFedMixという名の新しい拡張アルゴリズムを提案し、これは驚くべきが単純なデータ拡張手法であるMixupにインスパイアされている。
- 参考スコア(独自算出の注目度): 60.503258658382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows edge devices to collectively learn a model
without directly sharing data within each device, thus preserving privacy and
eliminating the need to store data globally. While there are promising results
under the assumption of independent and identically distributed (iid) local
data, current state-of-the-art algorithms suffer from performance degradation
as the heterogeneity of local data across clients increases. To resolve this
issue, we propose a simple framework, Mean Augmented Federated Learning (MAFL),
where clients send and receive averaged local data, subject to the privacy
requirements of target applications. Under our framework, we propose a new
augmentation algorithm, named FedMix, which is inspired by a phenomenal yet
simple data augmentation method, Mixup, but does not require local raw data to
be directly shared among devices. Our method shows greatly improved performance
in the standard benchmark datasets of FL, under highly non-iid federated
settings, compared to conventional algorithms.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、エッジデバイスが各デバイス内でデータを直接共有することなく、総合的にモデルを学習することを可能にする。
独立かつ同一に分散された(iid)ローカルデータの仮定の下では有望な結果があるが、現在の最先端のアルゴリズムは、クライアント間のローカルデータの均一性が増大するにつれてパフォーマンス劣化に悩まされている。
この問題を解決するために,我々は,ターゲットアプリケーションのプライバシ要件に基づいて,クライアントが平均的なローカルデータを送受信するシンプルなフレームワークであるmeus augmented federated learning (mafl)を提案する。
本フレームワークでは,FedMixという新たな拡張アルゴリズムを提案する。このアルゴリズムは,デバイス間で直接共有するローカルな生データを必要とせず,極めて単純なデータ拡張手法であるMixupにインスパイアされている。
提案手法は, FLの標準ベンチマークデータセットにおいて, 従来のアルゴリズムと比較して, 非常に非イドなフェデレーション設定下での大幅な性能向上を示す。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - FedFOR: Stateless Heterogeneous Federated Learning with First-Order
Regularization [24.32029125031383]
フェデレートラーニング(FL)は、集中型データセンタでデータを収集することなく、ローカルクライアントにモデルトレーニングを配布することを目指している。
本稿では,グローバルなデータ分布の局所的な目的への一階述語近似を提案し,グローバルな更新の反対方向に直感的に更新をペナルティ化する。
我々のアプローチはクライアントサイズに非現実的な制限を課しておらず、ほとんどのFLアプリケーションで典型的なような、多数のクライアントからの学習を可能にします。
論文 参考訳(メタデータ) (2022-09-21T17:57:20Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Semi-Supervised Federated Learning with non-IID Data: Algorithm and
System Design [42.63120623012093]
フェデレートラーニング(FL)は、エッジデバイス(またはクライアント)がデータをローカルに保持し、同時に共有グローバルモデルをトレーニングすることを可能にする。
クライアントのローカルトレーニングデータの分布は、非独立に均等に分散されている(非IID)
本稿では、FLにおけるデータ可用性と非IIDの問題を解決することを目的とした、堅牢な半教師付きFLシステム設計を提案する。
論文 参考訳(メタデータ) (2021-10-26T03:41:48Z) - Mime: Mimicking Centralized Stochastic Algorithms in Federated Learning [102.26119328920547]
フェデレートラーニング(FL)は、異なるクライアントにわたるデータの均一性のため、最適化の難しい設定である。
本稿では,クライアントのドリフトを緩和し,任意の集中最適化アルゴリズムを適用するアルゴリズムフレームワークであるMimeを提案する。
論文 参考訳(メタデータ) (2020-08-08T21:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。