論文の概要: PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy
- arxiv url: http://arxiv.org/abs/2305.11437v1
- Date: Fri, 19 May 2023 05:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 16:12:58.557306
- Title: PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy
- Title(参考訳): PS-FedGAN - データプライバシのための部分共有ジェネレータネットワークに基づく効率的なフェデレーション学習フレームワーク
- Authors: Achintha Wijesinghe, Songyang Zhang, Zhi Ding
- Abstract要約: 分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
- 参考スコア(独自算出の注目度): 56.347786940414935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has emerged as an effective learning paradigm for
distributed computation owing to its strong potential in capturing underlying
data statistics while preserving data privacy. However, in cases of practical
data heterogeneity among FL clients, existing FL frameworks still exhibit
deficiency in capturing the overall feature properties of local client data
that exhibit disparate distributions. In response, generative adversarial
networks (GANs) have recently been exploited in FL to address data
heterogeneity since GANs can be integrated for data regeneration without
exposing original raw data. Despite some successes, existing GAN-related FL
frameworks often incur heavy communication cost and also elicit other privacy
concerns, which limit their applications in real scenarios. To this end, this
work proposes a novel FL framework that requires only partial GAN model
sharing. Named as PS-FedGAN, this new framework enhances the GAN releasing and
training mechanism to address heterogeneous data distributions across clients
and to strengthen privacy preservation at reduced communication cost,
especially over wireless networks. Our analysis demonstrates the convergence
and privacy benefits of the proposed PS-FEdGAN framework. Through experimental
results based on several well-known benchmark datasets, our proposed PS-FedGAN
shows great promise to tackle FL under non-IID client data distributions, while
securing data privacy and lowering communication overhead.
- Abstract(参考訳): 分散学習(federated learning, fl)は,データのプライバシを保ちながら,基礎となるデータ統計を捉える強力な可能性から,分散計算の効果的な学習パラダイムとして登場した。
しかし、FLクライアント間での実用的なデータ不均一性の場合、既存のFLフレームワークは、異なる分布を示すローカルクライアントデータの全体的な特徴特性を捉えるのに不足している。
その結果,GANは生データを公開せずにデータ再生に利用できるため,データ不均一性に対処するため,GAN(Generative Adversarial Network)が最近FLで活用されている。
いくつかの成功にもかかわらず、既存のGAN関連のFLフレームワークは、しばしば大きな通信コストを発生させ、他のプライバシー上の懸念も引き起こす。
そこで本研究では,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、クライアント間の異種データ分散に対処し、特に無線ネットワーク上での通信コストの低減によるプライバシー保護を強化するため、GANリリースおよびトレーニングメカニズムを強化する。
本分析は,提案したPS-FEdGANフレームワークの収束とプライバシの利点を示す。
複数の有名なベンチマークデータセットに基づく実験結果から,提案するps-fedganは,データプライバシの確保と通信オーバーヘッドの低減を両立しつつ,非iidクライアントデータ分散下でflに取り組むという大きな期待を示す。
関連論文リスト
- Disentangling data distribution for Federated Learning [20.524108508314107]
フェデレートラーニング(FL)は、分散クライアントが所有するプライベートデータによってパフォーマンスが向上するグローバルモデルの協調トレーニングを促進する。
しかし、FLの幅広い適用性は、異なるクライアント間のデータ分散の絡み合いによって妨げられている。
本稿では,FLがデータ分散を解き放つことによって,分散システムに匹敵する効率を原理的に達成できることを初めて示す。
論文 参考訳(メタデータ) (2024-10-16T13:10:04Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Personalized Privacy-Preserving Framework for Cross-Silo Federated
Learning [0.0]
Federated Learning(FL)は有望な分散ディープラーニング(DL)フレームワークであり、プライベートデータを共有することなく、クライアント間で共同でトレーニングされたDLベースのアプローチを可能にする。
本稿では,PPPFL(Personalized Privacy-Preserving Federated Learning)という新しいフレームワークを提案する。
提案するフレームワークは,MNIST,Fashion-MNIST,CIFAR-10,CIFAR-100など,さまざまなデータセット上で複数のFLベースラインより優れている。
論文 参考訳(メタデータ) (2023-02-22T07:24:08Z) - Clustered Data Sharing for Non-IID Federated Learning over Wireless
Networks [39.80420645943706]
Federated Learning (FL)は、IoT(Internet of Things)のデータを活用する分散型機械学習アプローチである。
現在のFLアルゴリズムは、非独立で同一の分散データ(非IID)の課題に直面しており、通信コストが高く、モデルの精度が低下する。
本稿では,デバイス間通信(D2D)を通じて,クラスタヘッドから信頼性の高いアソシエイトへの部分的データ通信を行うクラスタデータ共有フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-17T07:11:02Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。