論文の概要: Federated Learning with GAN-based Data Synthesis for Non-IID Clients
- arxiv url: http://arxiv.org/abs/2206.05507v1
- Date: Sat, 11 Jun 2022 11:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 16:34:43.215679
- Title: Federated Learning with GAN-based Data Synthesis for Non-IID Clients
- Title(参考訳): 非IIDクライアントのためのGANに基づくデータ合成によるフェデレーション学習
- Authors: Zijian Li, Jiawei Shao, Yuyi Mao, Jessie Hui Wang, Jun Zhang
- Abstract要約: フェデレートラーニング(FL)は、最近、プライバシ保護のためのコラボレーティブラーニングパラダイムとして人気を博している。
我々は,合成データを共有することで,この非IID課題を解決するために,SDA-FL(Synthetic Data Aided Federated Learning)という新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.304185807036783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has recently emerged as a popular privacy-preserving
collaborative learning paradigm. However, it suffers from the non-independent
and identically distributed (non-IID) data among clients. In this paper, we
propose a novel framework, named Synthetic Data Aided Federated Learning
(SDA-FL), to resolve this non-IID challenge by sharing synthetic data.
Specifically, each client pretrains a local generative adversarial network
(GAN) to generate differentially private synthetic data, which are uploaded to
the parameter server (PS) to construct a global shared synthetic dataset. To
generate confident pseudo labels for the synthetic dataset, we also propose an
iterative pseudo labeling mechanism performed by the PS. A combination of the
local private dataset and synthetic dataset with confident pseudo labels leads
to nearly identical data distributions among clients, which improves the
consistency among local models and benefits the global aggregation. Extensive
experiments evidence that the proposed framework outperforms the baseline
methods by a large margin in several benchmark datasets under both the
supervised and semi-supervised settings.
- Abstract(参考訳): フェデレーション学習(federated learning, ffl)は,先日,プライバシ保護によるコラボレーション学習パラダイムとして注目されるようになった。
しかし、クライアント間の非独立かつ同一の分散(非iid)データに苦しむ。
本稿では,合成データを共有することで,この非iid課題を解決するために,合成データ支援連合学習(sda-fl)という新しい枠組みを提案する。
具体的には、各クライアントは、グローバル共有合成データセットを構築するためにパラメータサーバ(PS)にアップロードされる差分プライベートな合成データを生成するために、局所生成逆ネットワーク(GAN)を事前訓練する。
また,合成データセットに対して自信のある擬似ラベルを生成するために,psによる反復的な擬似ラベル機構を提案する。
ローカルプライベートデータセットと合成データセットと確実な擬似ラベルの組み合わせは、クライアント間でほぼ同一のデータ分散をもたらし、ローカルモデル間の一貫性を改善し、グローバルアグリゲーションの恩恵を受ける。
大規模な実験により、提案フレームワークは、教師付きおよび半教師付き両方の設定下で、いくつかのベンチマークデータセットにおいて、ベースライン手法よりも大きなマージンで性能が向上していることが示された。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLIGAN: Enhancing Federated Learning with Incomplete Data using GAN [1.5749416770494706]
Federated Learning (FL)は、ネットワークデバイス上での機械学習モデルの分散トレーニングのためのプライバシ保護メカニズムを提供する。
本稿では,FLにおけるデータ不完全性問題に対処する新しいアプローチであるFLIGANを提案する。
本手法はFLのプライバシ要件に則り,プロセス内の実際のデータを共有せずに合成データをフェデレートした方法で生成する。
論文 参考訳(メタデータ) (2024-03-25T16:49:38Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Exploring One-shot Semi-supervised Federated Learning with A Pre-trained Diffusion Model [40.83058938096914]
我々は,フェデレート拡散にインスパイアされた半教師付き協調学習法であるFedDISCを提案する。
まず、ラベル付きサーバデータのプロトタイプを抽出し、これらのプロトタイプを用いてクライアントデータの擬似ラベルを予測する。
各カテゴリについて、クラスタセントロイドとドメイン固有の表現を計算し、それらの分布のセマンティックおよびスタイリスティックな情報を表す。
これらの表現はサーバに送信され、事前にトレーニングされたデータを使用して、クライアントの分布に応じて合成データセットを生成し、その上でグローバルモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-06T14:22:33Z) - Personalized Privacy-Preserving Framework for Cross-Silo Federated
Learning [0.0]
Federated Learning(FL)は有望な分散ディープラーニング(DL)フレームワークであり、プライベートデータを共有することなく、クライアント間で共同でトレーニングされたDLベースのアプローチを可能にする。
本稿では,PPPFL(Personalized Privacy-Preserving Federated Learning)という新しいフレームワークを提案する。
提案するフレームワークは,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100など,さまざまなデータセット上で複数のFLベースラインより優れている。
論文 参考訳(メタデータ) (2023-02-22T07:24:08Z) - Distributed Traffic Synthesis and Classification in Edge Networks: A
Federated Self-supervised Learning Approach [83.2160310392168]
本稿では,多数の異種データセット上での自動トラフィック解析と合成を支援するFS-GANを提案する。
FS-GANは複数の分散ジェネレーティブ・アドバイサル・ネットワーク(GAN)から構成される
FS-GANは未知のサービスのデータを分類し、未知のタイプのトラフィック分布をキャプチャする合成サンプルを作成する。
論文 参考訳(メタデータ) (2023-02-01T03:23:11Z) - Federated clustering with GAN-based data synthesis [12.256298398007848]
フェデレーションクラスタリング(FC)は、フェデレーション設定における集中クラスタリングの拡張である。
我々は、SDA-FCと呼ばれる新しいフェデレーションクラスタリングフレームワークを提案する。
各クライアントで生成する敵ネットワークをローカルにトレーニングし、生成した合成データをサーバにアップロードし、合成データ上でKMまたはFCMを実行する。
合成データにより、非IID問題に対してモデルが免疫しやすくなり、プライベートデータを共有することなく、より効率的にグローバルな類似性特性を捉えることができる。
論文 参考訳(メタデータ) (2022-10-29T07:42:11Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。